匿名
グーグルは人工知能と「マシン学習」、つまり人間の学習能力と同様の機能をコンピューターで実現しようとする技術のリーダー格だ。しかし、同社のコンピューターはまだ多くのことを学ばねばならない。今週、「グーグル・フォト」アプリによって大きなヘマを犯したからだ。
このフォト・アプリは、黒人2人を「ゴリラ」とタグ付けしてしまった。ウェブ開発者ジャッキー・アルシネ氏がこの誤りを発見し、そのタグ付け写真をツイートした。 同氏はツイッターで「グーグル・フォトの大ばか野郎。私の友人はゴリラではない」と書いた。
グーグルは謝罪し、問題解決のためアルゴリズムを修正中だと述べた。
グーグルの広報担当者は「われわれは愕然とした。こうしたことが起きて本当に申し訳なく思う」と述べた。そして、「自動的なイメージラベル表示について依然として多くの作業が必要であるのは明白で、こうした種類のミスが将来発生するのを防止するにはどうするか検討中だ」と語った。
ゴリラのタグ付けミスは、グーグルが数週間前に導入した「グーグル・フォト」アプリの検索機能で発生した。ユーザーが検索を開始すると、グーグルはマシン学習(ラベル表示などを実行するようコンピューターを訓練した技術)から展開されたカテゴリー(タグ)を示す。グーグルはゴリラ・カテゴリーを除外し、こうしたタグ付けが二度と表示されないようにした。
グーグルの主任アーキテクトのヨナタン・ザンガー氏はツイッターでアルシネ氏に回答し、「多くの作業が行われており、行われねばならないが、われわれはこれに集中している」と述べた。そして、グーグルは人間の皮膚の色彩の認識機能を改善するよう作業しており、写真に撮っている人々のためのラベル表示をもっと慎重にするつもりだと語った。
今回のエピソードは、人工知能とマシン学習の欠陥を露呈している。とりわけ消費者のために使われる場合がそうだ。グーグルは依然として欠陥があるかもしれないソフトを導入し、その後、アップデートして問題を矯正するというやり方をとっている。このやり方だと、ソフト製品は真っ先にユーザーに出回るが、バグが大きいと消費者を仰天させるリスクをはらんでいる。
ウォール・ストリート・ジャーナル
古トピの為、これ以上コメントできません
1件~1件 ( 全1件)
*コメント欄のパトロールでYahoo!ニュースのAIを使用しています
ママスタコミュニティはみんなで利用する共有の掲示板型コミュニティです。みんなが気持ちよく利用できる場にするためにご利用前には利用ルール・禁止事項をご確認いただき、投稿時には以下内容をもう一度ご確認ください。
上記すべてをご確認いただいた上で投稿してください。
No.6 主 匿名
15/07/04 08:20:40
ゴリラってリアルだな
返信