©Ibuki Haruka
事例
Aさんがインターネットを閲覧していると、「ある企業で、AI採用ツールが応募者の性別によって偏った採用評価をしていることが判明し、ツール活用を取りやめた」という記事を目にする。
Bさんが、「この採用ツールは、過去数年間の応募者の履歴書が学習データとして用いられたが、男性の応募者数が多かったため、AIが『男性を採用するのが良い』と認識してしまった。これまで男性を多く採用してきた経緯から、AIの判断が偏っていることに採用担当者もしばらく気づけなかった。」と話す。
Aさんが、「AIの判断や回答は、必ずしも公平・中立ではない」と気づく。
Bさんが、「AIを利用する私たちが、正しい情報であるかを自分でも考えることが大切」と話す。
ポイント
- 学習データにバイアスが含まれていたり、開発者の無意識のバイアスが反映されたりすることで、AIの判断や生成コンテンツにはバイアスが含まれていることがあります。また、AIが事実に基づかない情報を生成することもあります(ハルシネーション)。
- そのため、AIの判断や回答を鵜呑みにしてしまうと、社会に存在する偏見や思い込みを強化してしまったり、差別や人権侵害につながったりする可能性があります。
- AIが出した結果に偏りがないかどうかは、利用する私たちに人権意識がなければ、気づくことができません。日頃から人権問題に関心を持ち、学び続けることが大切です。