全1668文字
PR

 グリッドの曽我部社長は「センサーデータなど純粋な数値データを対象としたAIを開発するには、人間によるデータの整形などが今後も必要だ」と指摘する。センサーが計測したデータが温度なのか重さなのか、データの単位は何か、データは何秒単位で計測したのかなどは、AIにはうかがい知れないためだ。

 AIが人間に頼らず試行錯誤によって自らの性能を上げていく強化学習にも弱点がある。Preferred Networks(PFN)の比戸将平執行役員は「強化学習が適用できるのは、コンピューター上で試行錯誤できる分野に限られる。強化学習には数万回の試行錯誤が求められるが、ロボットや自動車などの実機を使った実環境での試行錯誤は回数を増やすのが難しい」と指摘する。あらゆる領域でAIがAIを開発するシナリオは現実味がまだ薄い。

AIがAIの判断根拠を説明

 グーグルのクラウドAI事業を統括するラジェン・シェス バイスプレジデント(VP)は「AIは今後、人間を助ける方向で進化していく」と語る。その1つの例が、同社が2019年11月21日に発表した「Cloud Explainable AI(説明可能AI)」というクラウドAIのサービスだ。

グーグルの「説明可能AI」
グーグルの「説明可能AI」
AIがニューラルネットワークの判断根拠を分析(写真:123RF)
[画像のクリックで拡大表示]

 Explainable AIは既存AIのニューラルネットワークの稼働状況を分析して、AIによる判断の根拠を人間に分かる形で提示する。例えば画像認識AIが分析対象であれば、被写体を分類する際に根拠としたピクセルをハイライト表示する。表形式のデータなら、データのどの部分(特徴)が判断に大きな影響を与えたのかを数値で示す。

 これまで深層学習が生み出したニューラルネットワークはユーザーにとって「ブラックボックス」だと言われてきた。「Explainable AIはニューラルネットワークをトレース(追跡)することで、ブラックボックスの中を人間が理解できるように説明する。Explainable AIによって、判断の根拠が示せないAIは使えないとのスタンスを示す金融機関などにもAIの導入が広がりそうだ」とシェスVPは自信を見せる。

 AIがブームになって久しいが、ビジネスでの活用はまだ始まったばかり。便利になり続けるAIをどう使いこなしていくかが、人間にとっての当面の課題だと言えそうだ。