AIがえこひいき?

AI担当の「さがびより太郎」ばーい。
アメリカでは、差別が話題になっとるねー。
ということで、「AIがえこひいきする?」というテーマで話ばさせてー。
あーら奥様、今日は何をご購入で?
音声アシスタントで買い物するときに、優良顧客の人にはお勧め情報を表示してーっと。
あとは、同じような商品を買った優良顧客が買った商品をお勧めしてーっと。
こんなお勧めは、デパートでもしよんもんねー。
そろそろお中元シーズンもんねー。
以前購入した商品データで分析したり、傾向や嗜好を分析してお勧めしたり。
こういう差別化は、まだ納得でくっばってん。
ある日、音声アシスタントが、「日本人の質問には返答しかねます」とか言い出したら?
また、「あなたは男性だからこの商品は見せません。」みたいなことをマイノリティーの人に言い始めたら?
傷つくねー。
AIもデータによって、回答したり、賢くなったりしていきよっと。
教えるデータや人間が、うーまんやったら、うーまんになっとさい。
女性からばっかりヒアリングしたデータで学習させたら、回答も女性の意見ば反映したものに偏る。あたりまえたい。
学習データの偏り
海外で、犯罪データのシステムば作ろうってしたて。
そこで犯罪データば集めたて。
そしたら、移民が多か地域の犯罪件数が多かったて。
実は、日ごろからその地域が重点的に取締りが多かったけんてー。
なんか同じごたっとが、コロナの調査でもあったねー。
調査の対象や、調査方法に偏りがあると、こがんことになっとねー。
じゃあ、どがんすっと?
AIの研究所とか大学で、AIに関する「権利と自由」「労働と自動化」「バイアスとインクルージョン」「安全性と重要なインフラストラクチャ」とかの研究ばしよんさって。
また、ヨーロッパでは『信頼できるAIに関する倫理的ガイドライン』とかば発表して、「こがんことに気―つけんばいかんよー」っていいよんさっと。
AI研究しとる大手の会社では、できるだけ多くの人種やマイノリティーの人たちば雇っていろんなデータや多様な視点からAIやシステムばつくらんばーってしよんさっと。
データの偏りをなくすには、AIを作る社員から、多様性をうけいれてSDGsのごたる、とりこぼしなく、みんなで幸せになろう。っていうことが大事かとねー。
そうやって、だんだん「信頼できるAI」になっていくとねー。
今回はここまで、そいぎんたー!

参考URL
- 「AIによる差別」の現状とは?事例、原因、世界各地の取り組みを紹介
https://ainow.ai/2020/02/17/183256/ - AIがあなたを差別するかもしれません
https://www3.nhk.or.jp/news/html/20191216/k10012216531000.html - マイクロソフトのMSN、英女性グループの有色人種メンバーの画像をAIが判別ミスか
https://japan.cnet.com/article/35155046/ - SDGsとは?
https://imacocollabo.or.jp/about-sdgs/
以上