• No.1 ちゃんぽん鍋

    24/03/21 10:58:13

    データセットには、利用する際に違法画像を排除するフィルター機能があり、スタ社もこの機能を使っているとしている。しかし、スタ社の提携企業は今年2月、フィルター機能で排除できない児童の性的画像が見つかったと明らかにした。

     このデータセットを巡っては、米スタンフォード大の研究チームが昨年12月、児童の性的画像の疑いがあるデータが3226点見つかったと公表。「生成する画像に影響を与えている可能性がある」と指摘した。

     スタ社に違法画像を排除しきれていない可能性を尋ねたが、回答がなかった。

      岸本充生・大阪大社会技術共創研究センター長(リスク学)の話 「生成AIは、膨大なデータを無差別学習することで精度を上げている。現在の技術では、違法画像を完全に排除することは難しいだろう。学習データに児童ポルノが含まれていれば、被害者の人権を侵害していることになりかねない。AI開発企業は対策を講じるとともに、どのようなデータを学習しているのかを説明する社会的責任がある」


     画像生成AIに関するご意見や情報を大阪社会部にお寄せください。

    メール…  osaka2@yomiuri.com

    LINE…  https://lin.ee/FROjZBRd

    読売新聞オンライン
    https://www.yomiuri.co.jp/national/20240321-OYT1T50036/

コメント

古トピの為、これ以上コメントできません

広告

返信コメント

  • まだコメントがありません

投稿するまえにもう一度確認

ママスタコミュニティはみんなで利用する共有の掲示板型コミュニティです。みんなが気持ちよく利用できる場にするためにご利用前には利用ルール・禁止事項をご確認いただき、投稿時には以下内容をもう一度ご確認ください。

上記すべてをご確認いただいた上で投稿してください。