- ニュース全般
- 匿名
- 23/12/12 09:00:47
人工知能(AI)を用いて写真に写った人物の服を「脱がす」アプリの人気が急上昇していることが、最新のソーシャルメディア調査で明らかになった。こうしたプログラムは、実在する個人が被写体となっている既存の写真や動画を加工して、被写体本人の同意なしに全裸にしてしまう。多くの「ヌード化アプリ」は女性の写真のみを対象としている。
(中略)
ある企業の広告は「気になる女の子を片っ端から脱がせよう」をキャッチフレーズに掲げていた。このような「バーチャル脱衣産業」は、2022年にはほぼ存在しなかった。オープンソースのAI画像拡散モデルが利用できるようになったことで、写真加工のプロセスが簡素化され、新しいアプリやウェブサイトを立ち上げやすくなった。Reddit(レディット)やX(旧ツイッター)での紹介リンク数はこの1年間で2400%以上急増しており、著しい成長を裏づけている。
(中略)
被写体の同意なしにウェブ上でヌード写真が共有されるのは今に始まったことではない。2018年には、あるハッカーが女優ジェニファー・ローレンスら著名人の実際のヌード写真をインターネット上に公開したとして、禁錮8月の有罪判決を受けた。ローレンスは問題の写真へのハッキングを「性犯罪」と非難した。
今や著名人のヌード写真すら、いくつかの簡単なキー操作で作成できてしまう。そして、その画像が本物か、それとも捏造されたものなのかを見分けるのは難しいだろう。
(中略)
さらに懸念されるのは、これらのプログラムが未成年者のヌード写真作成に利用されている点だ。今年9月、スペインで20人以上の少女のAI生成ヌード画像が摘発された。ほとんどの画像は、少女たち自身がインスタグラムのアカウントに掲載した着衣写真を元に作成されていた。AI搭載アプリ「ClothOff」で元画像をヌード写真に加工した後、WhatsAppのグループで共有するという手口だった。
米ニュージャージー州でも先月、同様の手法で複数の高校生が同級生のヌード写真を作成していたことが発覚した。
著名人、同級生、バスに乗り合わせた見知らぬ人々、会社の重役、同僚、子どもたちの写真でさえ、たった数回のクリックで「脱がす」ことができてしまう。現在のところ、こうした写真加工を禁止する米連邦法はない。ただし、AIを用いて未成年者のポルノ画像を作成するのは違法だ。11月にはノースカロライナ州の児童精神科医が、患者の着衣写真をAIで性的な画像にデジタル加工したなどとして、児童ポルノ違反で禁錮40年の判決を受けた。
だが、大人の写真に関しては依然、一連のアプリとそれを使って作成された画像は合法の扱いのようだ。米誌タイムによれば、TikTok(ティックトック)とMeta(メタ)は「undress(脱衣)」という検索ワードをブロックすることで、こうしたプログラムへのアクセスを減らそうとしている。グーグルも、ヌード化アプリやサービス提供サイトの広告を一部削除している。
https://news.yahoo.co.jp/articles/1fd3a026ff2e5d74b25ff432d31f6be9e4d6a099
- 0 いいね