AIがえこひいき?

AIがえこひいき?

AI担当の「さがびより太郎」ばーい。
アメリカでは、差別が話題になっとるねー。
ということで、「AIがえこひいきする?」というテーマで話ばさせてー。

※目次をスキップする

目次

    あーら奥様、今日は何をご購入で?

    音声アシスタントで買い物するときに、優良顧客の人にはお勧め情報を表示してーっと。
    あとは、同じような商品を買った優良顧客が買った商品をお勧めしてーっと。
    こんなお勧めは、デパートでもしよんもんねー。
    そろそろお中元シーズンもんねー。

    以前購入した商品データで分析したり、傾向や嗜好を分析してお勧めしたり。
    こういう差別化は、まだ納得でくっばってん。

    ある日、音声アシスタントが、「日本人の質問には返答しかねます」とか言い出したら?
    また、「あなたは男性だからこの商品は見せません。」みたいなことをマイノリティーの人に言い始めたら?
    傷つくねー。

    AIもデータによって、回答したり、賢くなったりしていきよっと。
    教えるデータや人間が、うーまんやったら、うーまんになっとさい。
    女性からばっかりヒアリングしたデータで学習させたら、回答も女性の意見ば反映したものに偏る。あたりまえたい。

    学習データの偏り

    海外で、犯罪データのシステムば作ろうってしたて。
    そこで犯罪データば集めたて。
    そしたら、移民が多か地域の犯罪件数が多かったて。
    実は、日ごろからその地域が重点的に取締りが多かったけんてー。

    なんか同じごたっとが、コロナの調査でもあったねー。
    調査の対象や、調査方法に偏りがあると、こがんことになっとねー。

    じゃあ、どがんすっと?

    AIの研究所とか大学で、AIに関する「権利と自由」「労働と自動化」「バイアスとインクルージョン」「安全性と重要なインフラストラクチャ」とかの研究ばしよんさって。

    また、ヨーロッパでは『信頼できるAIに関する倫理的ガイドライン』とかば発表して、「こがんことに気―つけんばいかんよー」っていいよんさっと。

    AI研究しとる大手の会社では、できるだけ多くの人種やマイノリティーの人たちば雇っていろんなデータや多様な視点からAIやシステムばつくらんばーってしよんさっと。

    データの偏りをなくすには、AIを作る社員から、多様性をうけいれてSDGsのごたる、とりこぼしなく、みんなで幸せになろう。っていうことが大事かとねー。

    そうやって、だんだん「信頼できるAI」になっていくとねー。

    今回はここまで、そいぎんたー!

    参考URL

    以上

    シェアしませんか?

    この記事の執筆者

    次へ

    ソロキャンプのすゝめ

    ソロキャンプのすゝめ


    前へ

    疲労回復にオススメドリンク

    疲労回復にオススメドリンク