XAI(説明可能なAI)が注目されている背景

急速な発展を遂げるAI(人工知能)。しかしAIにはまだまだ課題があります。今回は『XAI(エックスエーアイ)』が注目されている背景を基に、AIに潜む課題を整理したいと思います。

XAIとは?

XAI(エックスエーアイ)という言葉、聞いたことがある方も多いかと思います。XAIとは「Explainable AI」日本語では「説明可能なAI」と呼ばれています。XAIは従来のAIが苦手としていた「どうしてこの予測結果を導き出したのか?」という結果に至ったプロセスを説明可能にする技術や分野のことを指します。近年、XAIは様々な分野で注目されており、世界中で開発が進んでいます。

XAIにはいくつかの手法がありますが、そのうちの一つとして「人間が行う説明方法を、AIに学習させる」方法があります。従来の機械学習は人間が特徴量を設計をしていたため、説明が容易でした。しかし、今注目されているディープラーニングを始めとした精度の高いAI技術は、機械が特徴量を決めるため、中身を説明することはできません。この説明方法そのものをAIに学習をさせようという試みがXAIでは既になされています。

XAIが注目されている背景

では何故、XAIが注目されているのでしょうか?
AIは近年急速な発展を遂げました。発展した背景として、GPUなどのパソコンの処理能力が向上し、大規模なデータをより素早く扱えるようになったこと、ディープラーニングを始めとしたアルゴリズムの進化により、AIの実用化が現実的になったことが挙げられます。

AIは今様々な分野で活用が検討されています。ビジネスの現場においては、流通小売、製造業、医療、サービス業などあらゆる現場で利用されているケースも増えています。例えば製造業の場合、設備や構造の劣化を予測する「劣化予測」や生産工程における異常や不良品を検知する「異常検知(不良品検知)」などが既に実用化されています。

一方、様々な分野で活用が進むAIにも課題があります。それは「ブラックボックス化」です。AIは膨大なデータから機械が自ら学習し自動で結果を導き出します。しかしその結果に至ったプロセスの根拠を説明(可視化)することができません。AI活用における課題は根拠のブラックボックス化にあります。
このブラックボックス化問題は、AIを実際にビジネスの現場で活用する上で大きな課題となります。

《ブラックボックス化によるAI活用の課題》

●データの信頼性・公平性に欠ける

●改善点が分からない

●説明責任を果たせない

「人が根拠を説明できない」のはビジネスの現場において不都合を生み出します。 例えば医療、自動車などのより人命が左右しかねない安全性が求められる分野においては、どんなにAIが精度の高い結果を導き出しても、理由を説明できなければデータの信頼性や公平性が100%とは言えず、使えない場面が出てきます。
また、AIは100%正解するとは限りません。当然間違いも起こします。AIが予測結果を間違えたとき、その理由が分からないと改善点も分かりません。精度が高い一方、間違えたときの対処法が分からないというデメリットも存在します。
そしてビジネスの現場においては、説明責任を求められます。どうしてこの結果になったのか、その説明ができないと実現性がないと判断されてしまう場面もでてきます。

このような課題をXAIを利用することで解決ができます。理由を説明できることで、データの信頼性・公平性が生まれ、かつ間違えたときの改善点を導けるようになるのです。この理由を説明できるということは、安全性や信頼性を求められるビジネスにおいて非常に重要な価値となります。

XAIの今後

XAIは今様々な分野で期待を寄せられています。人命に関わる医療の現場では診療支援として既にAIが活用されていますが、XAIの導入により疾病予測の精度がより高まります。また安全性や信頼性が求められる自動車業界においては、安全運転をサポートするAIがありますが、テスト段階で万が一ミスをしたときに理由が分かるため、より安全性の高いAIによるサポート技術を提供することができます。
AIを活用する上で「説明ができないので上手く活用ができない」という課題をお持ちの企業様は、是非XAIの活用をご検討いただければと思います。

※参考:@ITX「AI(Explainable AI:説明可能なAI)/解釈可能性(Interpretability)とは?」
(https://www.atmarkit.co.jp/ait/articles/1908/19/news022.html)