AIがえこひいき?

AIがえこひいき?

AI担当の「さがびより太郎」ばーい。
アメリカでは、差別が話題になっとるねー。
ということで、「AIがえこひいきする?」というテーマで話ばさせてー。

あーら奥様、今日は何をご購入で?

音声アシスタントで買い物するときに、優良顧客の人にはお勧め情報を表示してーっと。
あとは、同じような商品を買った優良顧客が買った商品をお勧めしてーっと。
こんなお勧めは、デパートでもしよんもんねー。
そろそろお中元シーズンもんねー。

以前購入した商品データで分析したり、傾向や嗜好を分析してお勧めしたり。
こういう差別化は、まだ納得でくっばってん。

ある日、音声アシスタントが、「日本人の質問には返答しかねます」とか言い出したら?
また、「あなたは男性だからこの商品は見せません。」みたいなことをマイノリティーの人に言い始めたら?
傷つくねー。

AIもデータによって、回答したり、賢くなったりしていきよっと。
教えるデータや人間が、うーまんやったら、うーまんになっとさい。
女性からばっかりヒアリングしたデータで学習させたら、回答も女性の意見ば反映したものに偏る。あたりまえたい。

学習データの偏り

海外で、犯罪データのシステムば作ろうってしたて。
そこで犯罪データば集めたて。
そしたら、移民が多か地域の犯罪件数が多かったて。
実は、日ごろからその地域が重点的に取締りが多かったけんてー。

なんか同じごたっとが、コロナの調査でもあったねー。
調査の対象や、調査方法に偏りがあると、こがんことになっとねー。

じゃあ、どがんすっと?

AIの研究所とか大学で、AIに関する「権利と自由」「労働と自動化」「バイアスとインクルージョン」「安全性と重要なインフラストラクチャ」とかの研究ばしよんさって。

また、ヨーロッパでは『信頼できるAIに関する倫理的ガイドライン』とかば発表して、「こがんことに気―つけんばいかんよー」っていいよんさっと。

AI研究しとる大手の会社では、できるだけ多くの人種やマイノリティーの人たちば雇っていろんなデータや多様な視点からAIやシステムばつくらんばーってしよんさっと。

データの偏りをなくすには、AIを作る社員から、多様性をうけいれてSDGsのごたる、とりこぼしなく、みんなで幸せになろう。っていうことが大事かとねー。

そうやって、だんだん「信頼できるAI」になっていくとねー。

今回はここまで、そいぎんたー!

参考URL

以上

シェアしませんか?

この記事の執筆者

次へ

ソロキャンプのすゝめ

ソロキャンプのすゝめ


前へ

疲労回復にオススメドリンク

疲労回復にオススメドリンク