説明可能なAI:AIモデルを説明する重要性

このページ内の目次

#Featured #Artificial Intelligence #Augmented AI #Explainable AI

人工知能ソリューションが広まるにつれて、AIの開発者やユーザーは、その説明や機能の命名にさまざまな言葉や表現を導入してきました。おそらく「特化型AI」、「ディープラーニング」、「ニューラルネットワーク」といったAIの種類や機能、AIソリューションの要素などを区別するために使われる新しい語を聞いたことがあるでしょう。また、利用可能なAIが急激に増加したこととその利用が普及した結果、「説明可能なAI」と呼ばれるものの必要性が出てきました。つまり、AIをすべての人により理解しやすいものにする手法や技術が必要になってきたのです。 

では、なぜ「説明可能なAI」が必要なのでしょうか。最大の理由として、AIソリューションの普及により、データサイエンスや人工知能について一般的な知識しかない作業者にもAIが広く使われるようになったことがあります。以前は、AIソリューションの利用ができたのは、技術的な知識のある人のみでした。今では、実用的なAIを採用担当者や販売員、ビジュアルアーティスト、その他さまざまな仕事の方が利用可能で、仕事以外にも利用されています。フロアマネージャーが個人的に取り入れたり、直接携帯電話にダウンロードしたり、多くのソリューションは枠組みにとらわれず利用できるのです。

今やAIは日常の些細なことから重大なものに至るまで、生活に影響しています。AIによって人間が時間のかかる反復作業をしなくてもいいようにできることもあれば、次の予約診察で、AIがあなたの命を救う診断をする可能性もあります。このまったく異なる2つの例は、AIを説明可能にすることの根拠として最もよく挙げられるものです。 

  1. 人々はAIの仕組みを知りたがっています。そうすることで安心してAIを利用でき、あるいはカスタマイズできます。さらに、多くのソリューションの中から適切なものを選択でき、自分に合わせた調整もできるようになるのです。
  2. 倫理的に人々はAIの仕組みを知る権利があります。医療、法律、財政のほか、多くの人にとって倫理的な境界が極めて重要な分野での意思決定を託されています。

説明可能であることは、しばしば「ブラックボックス」と呼ばれるAIの部分を開放することでもあり、ほとんどの人が理解できる言葉でソリューションについて議論する手だてにもなります。また、「この重大な決定はどのようになされたのか」「他に可能な選択肢はあるか」といった、当たり前で重要な疑問に対しても答えられるようになります。

CrowdANALYTIXのような企業では、度々説明可能なAIへの取り組みが必要となります。例えば最近では、ある大手製薬会社向けに非常に実用的なアンサンブルモデルを開発しました。それは、先行の第Ⅱ相試験の結果に基づき第Ⅲ相試験の選択パラメータの定義を行うものです。ちなみに当初は、ランダムフォレストをベースに開発していました。得られたアルゴリズムからは、従来の統計ベース手法での患者数より20%少ない患者数で第Ⅲ相試験を行えるとの結果が出ました。これは、製薬会社にとって数百万ドルの経費削減になるものでした。

しかし、実行したモデルがどのようにこの結果を導き出したのかを説明しようとした際、問題にぶつかりました。ランダムフォレストのモデルは正確ではあるものの、正確性を最大化にするためにアルゴリズムによって調整された負荷を持つことで、個々のツリーが複雑に絡み合ってしまうことが多いのです。優れた手法ですが、複雑すぎて人間が簡単に説明することはできません。もっと説明しやすいなものでなければ、製薬会社は当社の独自手法による試験の実施に必要となるFDA(アメリカ食品医薬品局)の承認が得られません。 

十分に説明可能であることは、そのソリューションが承認を得られるための鍵でした。これに対処すべく、ソリューションに使用したランダムフォレストではなく、デシジョンツリーの手法を使用してよく似たワーキングモデルを設計しました。このバージョンでは類似の結果を出しつつも、はるかに説明しやすく、データサイエンスのコミュニティ外の人にも理解しやすいものになりました。当初のモデルの正確さについて、一部断念しなくてはならない部分もありましたが、伝統的で倫理的に厳格なFDAの基準に対する透明性のために、この妥協は有意義なものでした。医薬品および医療分野でAIがより受容されるようにする取り組みは、正しい方向への一歩です。 

世界的な大手企業で「説明可能なAI」が人工知能の未来であると考えられていることは明らかです。Googleはこの分野に巨額の投資を行い、機械学習がどのように機能するかを理解したい人に向けてインタラクティブな可視化ツールを提供するようになっています。さらに投資家は、一般人にも理解できるレベルまで情報を分解できるAIの需要が高まっていることをいち早く察知しています。一般の人も、ソリューションを仕事や生活に取り入れ、任せることとなったとき、そうした知識力を求めるようになります。 

人間が革新と改善を続けていけば、「説明可能なAI」を“最適なタスクが実行できる影響力のあるAI”に変貌させるという目標へ近づけることができます。AIによる成功や失敗が「どんな場合に、なぜ起こるか」を把握できれば、より戦略的にリソースを配分し、あらゆるレベルで大きな効率化が図れます。

今こそデータサイエンティストは「説明可能なAI」のスキルを身につけ、ソリューションの活用と“AIという道具の理解”を望む消費者へ、アピールを開始することが重要なのではないでしょうか。

トップに戻る

関連記事

前へ

AIで人間のバイアスは縮小されるか

Page Top