児童の裸体写真を1万3千枚所持していた医師を逮捕…診察中に盗撮、Googleクラウド保存で発覚

匿名

和菓子職人

24/09/13 12:54:22

児童裸体写真を1万3千枚秘蔵=診察中に盗撮、グーグルが通報

2024年9月12日
ブラジル日報

 ブラジル南部サンタカタリーナ州で7月31日、診療中に盗撮した小児患者の性的画像1万3千枚を所持していたとして内科医の男が逮捕された。男は画像をグーグル社のクラウド・サービスに保存しており、同社による違法コンテンツ監視システムによって発覚。彼のアカウントは即座にブロックされ、保存データは検察局のサイバー犯罪課に提出され、刑務所に収監されることになった経緯について9月11日付G1(1)が報じた。

 担当検察官ジエゴ・バルビエロ氏はこうした犯罪を抑止するには、仮想世界で活動する企業の協力が不可欠であるとし、「グーグルからの通報がなければ、事件の発覚には至らなかった可能性が高い」と説明した。
 グーグルは人工知能、継続的な監視、国際機関の協力を駆使して、ユーザーの違法な活動を検出し、犯罪について当局に通知しており、2021年には全世界で300万件の性的虐待コンテンツを報告した。同社の透明性レポートによると、23年7〜12月の期間に児童性的虐待コンテンツ(CSAM)の拡散を理由に24万9千ものアカウントが取り消された。その中には同医師のオンラインアカウントやメールアドレスなども含まれていた。彼はCSAMに関する刑事訴訟の被告となっているが、捜査の詳細は機密扱いだ。

 デジタル領域における児童性的虐待は年々増加しており、23年にはブラジル国内で7万1867件の通報があり、それまで最高記録の08年を28%も上回った。グーグルの顧問弁護士カミラ・ローザ氏によれば、同種の犯罪は国境を超え、ブラジルは報告件数が最も多い10カ国の一つだという。

続く

コメント

古トピの為、これ以上コメントできません

  • No.1 和菓子職人

    24/09/13 12:55:22

    グーグルによって特定されたCSAMは、米国の民間非営利団体「全米行方不明・被搾取児童センター(NCMEC)」に報告され、全世界の法執行機関に通報される。同社は人工知能を用いた自動検出ツールと、訓練された審査担当者よる監視の両方を組み合わせて違法コンテンツの検出と対応を行っている。
     同社は捜査を行う権限を持っていないため、ポリシーに明白に反するコンテンツが検出されれば当局に通報し、その後、裁判所の決定に従って対応を行う。バルビエロ検察官は「グーグルは本人のクラウドにあるデータを暗号化されたクラウドに転送し、暗号化パスワードを持つ正式な捜査官だけがアクセスして資料を分析できるようにする」と説明する。

     同検察官によれば、NCMECが犯罪画像の追跡を行っており「ハッシュ」と呼ばれる一種のコードを用いて違法コンテンツを特定し、追跡する。児童性的虐待画像が広く流通する場合、これらの犯罪は連邦検察局の支援の下、連邦司法機関で捜査される。アクセスが制限されている場合、州検察局や市警が捜査を行う。
     サンタカタリーナ州の医師のケースでは、違法な活動に関する情報が発見され、同州検察局のサイバー犯罪課に送られた。23年11月24日、検察局は医師に対して捜索および押収の令状を執行し、複数の電子機器を押収した。
     同州サイバー犯罪課による捜査は児童に対する性的暴力だけでなく、公的財産に対する犯罪、汚職、銀行詐欺も含まれている。これまでに総額400万レアル以上が凍結され、127件の捜索および押収令状が発行された。

    https://www.brasilnippou.com/2024/240912-110brasil.html

  • No.2 水族館の飼育係

    24/09/13 13:00:53

    そういえば児童ポルノAIが見つけるとか言ってたね
    ネットの海から探し出すとか凄すぎる…あと小児性愛者がi-phoneからAndroidに替えるって話もあったなそういえば
    ネットであくどい画像や動画見れないね…残っちゃうし履歴も

  • No.3 自衛隊(空)

    24/09/13 13:03:01

    こわ。機密情報とか保存できないね。

  • No.4 デザイナー(グラフィック)

    24/09/13 13:11:49

    >>3
    機密情報なんて一般人は保持しないから

  • No.5 保育士

    24/09/14 11:18:54

    全世界の小児性愛者が震撼する事件

  • 広告
  • No.6 探偵

    24/09/17 09:29:22

    PCに児童ポルノを保存してるロリコン・ショタコンは終わったな

  • No.7 電車運転士

    24/09/17 09:34:36

    自分のスマホだけで保存していると、思いきや
    しっかり探知して検出されてんのすご。

    日本も逮捕者でないかな。
    小児愛は病気だよ。投薬更生プログラムがあれば良いのに。

  • No.8 自衛隊(陸)

    24/09/20 12:34:46

    気持ち悪い

  • No.9 動物園の飼育係

    24/09/20 22:50:08

    小児性愛者は滅びろ

  • No.10 木こり

    24/09/20 22:53:11

    IT嫌いだけどこういうのは本当に良い成果のひとつだと思う。
    監視が正の方に働くのはいいこと。

  • No.11 動物園の飼育係

    24/09/20 23:01:12

    何年もかけて集めてたんだろうなぁ
    ドン引き

  • No.12 警察官

    24/09/20 23:04:46

    この医師が最低なのは置いとくとして、怖いシステムね

  • No.13 アナウンサー

    24/09/22 09:50:22

    >>12
    やましいデータを所持してる人にとっては恐ろしいよね

  • No.14 匿名

    24/09/22 09:55:49

    >>2
    いい事だけど、なんだか複雑だよね。
    犯罪系は一切なくてもこうやってママスタにきてあーだこーだ言っている自分も見られている(知られている)ってことだもんね。何の問題もないからスルーされるけど、知られているってことだと思ったら気持ちの良いものではない(笑)
    人間社会にすでに人間じゃないものが紛れ込んでいるのかもね。

  • No.15 気象予報士

    24/09/26 21:58:43

    >>14
    人間が見るわけじゃなくて、AIに犯罪に関わるものを探させて、ピックアップされたものだけ人間がチェックして判断するんだよ
    無害なママスタ民のデータは見られてないから安心して!

1件~15件 ( 全15件)

*コメント欄のパトロールでYahoo!ニュースのAIを使用しています

投稿するまえにもう一度確認

ママスタコミュニティはみんなで利用する共有の掲示板型コミュニティです。みんなが気持ちよく利用できる場にするためにご利用前には利用ルール・禁止事項をご確認いただき、投稿時には以下内容をもう一度ご確認ください。

上記すべてをご確認いただいた上で投稿してください。