Google Photosが黒人をゴリラと認識する事件が発生。開発者が謝罪

1: 記憶たどり。 ★ 2020/07/02(木) 06:38:25.45 ID:IuRh6OCj9
https://gigazine.net/news/20150702-google-photos-gorilla/

5月29日にリリースされたGoogleの新しいフォトアプリ「Google Photos」にはアップロードされた写真に対して人工知能が自動的にタグをつける機能がありますが、
黒人2人組が写る写真に対し「ゴリラ」というタグが付けられる「事件」が発生しました。

ことの発端となったのはJacky Alcinéさんが行ったツイート。「Google Photosは最悪。私の友だちはゴリラじゃない」というメッセージと共に写真がアップされています。
高層ビル、飛行機、車、などは正しく認識されていますが、下段真ん中に写っているAlcinéさんと友人が「ゴリラ」と認識されていました。

さらに、AlcinéさんがGoogle Photos内で「ゴリラ」と検索をかけても2人の写真が検索されることから、「Googleはどういう写真からデータを集めているの?」と不信に思っていた様子。

AlcinéさんはすぐにGoogleのソーシャル部門のチーフ・アーキテクトであるYonatan Zungerさんに連絡。Zungerさんは謝罪すると共に「バグの報告をありがとう」と対応し、
Alcinéさんの許可を得てアカウントにアクセスすることで、その日のうちにバグは修正されました。

またZungerさんは「このようなことはよくあります」としつつも「マシン自体にバイアスはありませんが、我々が注意しないと彼らは容易に私たちから人種差別を『学んで』しまいます」とAlcinéさんにメッセージを送っています。
これは、インターネットには黒人とゴリラを結びつける差別的な情報があふれており、それをマシンが機械学習してしまう、ということだと考えられます。

現在、Google Photos内から「ゴリラ」というタグは削除されていますが、チームは依然「なぜ人間の顔が正しく認識されないのか?」ということを調査中。
このようなバグは初めてのことではなく、Zungerさんによると一度は人種に関わらず全ての人が「犬」と認識されることもあったそうです。

Googleの広報担当は「このような事態が起こり本当に申し訳ないです。同様の結果を招かないよう、迅速に対応していきます。
自動タグ付け機能にはまだまだ問題があり、今後、今回のような間違いを起こさないようにする方法を探っています」とコメントしています。


57: 不要不急の名無しさん 2020/07/02(木) 06:46:36.97 ID:2s9Qmo760
>>1
> これは、インターネットには黒人とゴリラを結びつける差別的な情報があふれており、それをマシンが機械学習してしまう、ということだと考えられます。

差別差別と大声で騒ぐからだろw
差別の自己再生産、自業自得だよ

136: 不要不急の名無しさん 2020/07/02(木) 06:57:22.49 ID:LZfS7GW+0
>>79
googleの画像一覧で黒人と一緒に関連画像としてゴリラ出てくるみたいな話の事だと思う
相当前からある問題

9: 不要不急の名無しさん 2020/07/02(木) 06:40:08.34 ID:jRkP5Vti0
うちの猫は"犬"と認識されたぞ
謝罪と賠償を要求する!

25: 不要不急の名無しさん 2020/07/02(木) 06:42:35.89 ID:1yPLUR0t0
>>9
うちもだわw

75: 不要不急の名無しさん 2020/07/02(木) 06:48:14.32 ID:5r49aqnS0
>>9
あごを床につけて寝ているシーンとかは、
猫でも「犬」に分類されているわな。

23: 不要不急の名無しさん 2020/07/02(木) 06:42:15.65 ID:KYfMj8Ig0
画像を


65: 不要不急の名無しさん 2020/07/02(木) 06:47:22.37 ID:FwKVSAGf0
>>23
ちゃんと複数形で草wwwwwwwww

289: 不要不急の名無しさん 2020/07/02(木) 07:22:22.59 ID:Gg5z5xes0
>>65
二匹とも判別したんやなwww

84: 不要不急の名無しさん 2020/07/02(木) 06:49:11.14 ID:AhI1cVp20
これ前から言われてる事だろ

91: 不要不急の名無しさん 2020/07/02(木) 06:50:19.46 ID:Rb82YXbf0
鼻と分厚い唇
AIが判断すればゴリラ

95: 不要不急の名無しさん 2020/07/02(木) 06:50:46.34 ID:m8PCBTZn0
服を着てるかどうかで区別は容易に付くだろ

140: 不要不急の名無しさん 2020/07/02(木) 06:58:08.07 ID:Gp0BNYOg0
アジア人が「朝鮮人」とかタグつけられたら暴動が起きるレベル

176: 不要不急の名無しさん 2020/07/02(木) 07:03:45.53 ID:rkWJMr+f0
同じようなニュース数年前に見たなと思ったらその時と同じニュースなのか

それ以来同じようなニュースがないって事その時以来googleの中の人達が黒人映り込んでる映像
全部チェックしてゴリラって記載を訂正して回ってるんだろうかね
かなりの数ゴリラになってるだろうし大変だね

230: 不要不急の名無しさん 2020/07/02(木) 07:12:09.25 ID:bcFQ4/vB0
こういうの、「ブラックジョークかよ!ハハハ見てくれよ!AIどうなってんだ?w」
って笑い飛ばせる位呑気な世界だったらいいのにね
なんかもうなんもかんも、ヘイトなのか、言葉狩りなのかわからんくなってくるわ

もしかして、ブラックジョークって言葉自体もヘイト?になってくる?
わけわからん

233: 不要不急の名無しさん 2020/07/02(木) 07:12:31.51 ID:O53qb3Tq0
難しいよこれは
GooglePhotosじゃないけど自撮りしてたら赤ちゃんと表示されたことある

コメントを投稿

0 コメント