AIで人間のバイアスは縮小されるか

このページ内の目次

#Featured #Artificial Intelligence #Augmented AI #Human Bias 

バイアス(偏り)は、今AI分野で最も話題になっていることであり、広く世界を見ても人種差別や不平等といった問題に対する苦悩があります。人は、人種や性別、障害、宗教、その他さまざまな違いによる偏見が、倫理的な行動や公平性に悪影響を及ぼす状況下に、毎日直面しています。どれだけ善意と教養がある人も、多様な文化的要素、長年の不平等待遇や不公正な優先傾向といった慣習に対し、人生を通して染みついた偏見を克服するのは容易ではありません。たとえ意識上のバイアスをある程度まで抑えられても、自分でも気付かない無意識のバイアスはかなり厄介です。 

AIは、人間のバイアス問題の解決に最適な策だと思われます。意思決定からバイアスを排除するために、AIのみに任せれば良いのではないでしょうか。人工的につくられた知能であるAIに、バイアスなどは存在しないのではないのでしょうか。AIの利用によって雇用、承認、診断のような日々の意思決定のプロセスを完全に公平なものにはできないのでしょうか。 

しかし残念ながら、AIにも人間と同じバイアスの悩みがあります。実際、信頼性のある研究では、AIのバイアス問題は大きくなるばかりで、今後はさらに顕著になっていくだろうと予想されています。より公平な社会を目指すうえで、バイアスのないAIシステムだけが長期的に使用されるようになることは明らかです。そもそもAIソリューションはどのようにバイアスをもつようになるのでしょうか。また、この問題をなくすためにはどうすれば良いのでしょうか。

AIにバイアスを与えるもの

人間は意図にかかわらずバイアスを持った生き物です。AIソリューションは人間によって作り出されたものであるため、人間がAIに関与していることが、バイアスを作り出している原因と言えます。AIにバイアスがあると言っても、AIが自ら人種や性別に関する優先傾向を生み出しているわけではありません。そのソリューションの開発に関与した人が、おそらく知らず知らずのうちに自分または他人にあるバイアスを学習させ、偏ったデータを使用することでバイアスが発生するのです。 

ほとんどのアルゴリズムは、単にデータ量を大きくすることで正確性を高めバイアスを生じにくくしようと、大規模なデータセットで学習を行っています。フィールドが広ければ広いほど顕著なバイアスは入りにくい一方で、小さなデータセットでは極端なバイアスが生じることがあります。しかし、多くのAIアルゴリズムでは一定のデータしか利用できず、人種差別やイデオロギー、その他のバイアスを含んだデータで学習した状態のままです。こうしたソリューションが、政府や医療、教育などの公的な分野で意思決定の補助として使用される場合や、雇用の決定時に使用されると、そうしたバイアスが目に付くようになり、人々は使用するAIを信頼しなくなるかもしれません。人工知能が人間に比べ格段に公平でないなら、なぜそれを使用しなければいけないのでしょうか。

AIのバイアスの縮小方法

AIの開発や利用、メンテナンスが適切に行われれば、AIからは苦悩の種である無意識のバイアスが排除され、偏りのない判断を下す大きな助けになります。しかしそれには、繰り返し信頼できるプロセスの作成することが必要です。次の手順を参考にしてください。 

・複数のモデルをクラウドソースする
CrowdANALYTIXでクラウドソーシングに頼る理由として、モデルの構築段階で個人のバイアスがあっても、複数のモデル間で互いに比較できることがあります。そうすることで、テスト時にバイアスが最も小さくなるモデル(1つのモデルまたは複数モデルの組み合わせ)を選ぶことができます。

・AIを監査する
AIを作成したのが人間なら、AIソリューションのバイアスの責任は人間にあります。人間が、ソリューションの分析を行い、そこに含まれるバイアスを見つけ、排除できなくてはなりません。信頼できる監視、調整システムが重要です。人間による監査とバイアス検出アルゴリズムによって、AIのバイアスをさらに小さくすることができます。 

・特定の、対象を絞った問題を扱う
あまりに広範または曖昧な問題をAIに解かせると、使用した膨大なデータからバイアスを見つけ出すのが難しい場合があります。適用範囲が詳細であればあるほど、バイアスを小さくすることが容易になります。

・データを十分に理解しておく
学習させるデータのバイアスについて注意深く分析しておけば、まったく思いも寄らない結果になることはないでしょう。もしデータセットが不十分な場合には、それを解消するために、さらにより適切なデータを収集する労力を割く必要がありそうです。 

・多様な人材をあてるAI
モデルの監査とチューニングが、多様な人間(人種や性別、イデオロギーなど)によって行われれば、出来上がるソリューションはバイアスが小さいものになり、また、ソリューションやデータセットに含まれるさまざまなバイアスが認識されやすくなります。 

・説明可能なAIの開発をめざす
ソリューションの説明を外部の人にも簡単にできるようになれば、何がそのAIにバイアスをもたせているのかの考察や特定がより容易になります。さらに、ソリューションが説明可能であれば、より多様な人々にフィードバックを求めることができます。

適切な学習を行い、バイアスのない人に対象を絞ったアルゴリズムでチューニングされたAIは、人と人との交流で見られるバイアスの問題に対しての解決策を提示してくれるでしょう。しかしながら、AIの作成、開発やメンテナンスにバイアスのある人間を関わらせないことにより、人間と機械学習とのあいだで多くのやりとりが必要になります。バイアスを縮小させる最良の方法は、これまで以上に多くの人間を関与させることなのかもしれません。 

出典https://www.crowdanalytix.com/can-ai-mitigate-human-bias/     
CrowdANALYTIX Resouce Library 

 

トップに戻る

関連記事

前へ

AIドリブンの世界を生き抜く:必要とされる教育

次へ

説明可能なAI:AIモデルを説明する重要性

Page Top