石の上にも三年
卒業アルバムなどに載っている児童生徒の写真を悪用し、性的に加工した画像や動画の252人分が2~6月、交流サイト(SNS)上に投稿されていたことが5日、民間団体の調査で分かった。生成人工知能(AI)技術を使った「性的ディープフェイク」も含まれるとみられ、団体は「氷山の一角」としている。
性的ディープフェイクは実在する人物の顔写真を使い、体部分をAIで作成した偽の性的画像や動画。アプリなどで簡単に作成でき、国内外で被害が増えている。
調査は、インターネット上で盗撮画像などをパトロールしている団体「ひいらぎネット」が実施。把握できた252人分のうち、内容などから中高生と推測されたのは200人、小学生が20人だった。残りは中高生か小学生かという判別ができなかった。その後、一部は削除された。
画像と一緒に子どもの名前が投稿されているケースもあり、同団体は在籍している可能性がある学校を調べ教育委員会や学校側に通報。学校や保護者からの連絡で、実在の人物だと確認した事例が複数あったという。
https://news.yahoo.co.jp/articles/8d7d970ee0c964c9ddcd4fcb4736ef12edcc01aa
古トピの為、これ以上コメントできません
1件~1件 ( 全1件)
*コメント欄のパトロールでYahoo!ニュースのAIを使用しています
ママスタコミュニティはみんなで利用する共有の掲示板型コミュニティです。みんなが気持ちよく利用できる場にするためにご利用前には利用ルール・禁止事項をご確認いただき、投稿時には以下内容をもう一度ご確認ください。
上記すべてをご確認いただいた上で投稿してください。
No.1 二度あることは三度ある
25/07/06 09:10:42
これ犯人には厳罰と、顔出し実名報道が必要だね。
返信