人間の知的能力の拡張にはAIの進化が欠かせない。主力技術の深層学習では、現在の限界の突破を狙った研究が始まった。人間の意識の機能を手掛かりに、新しいアーキテクチャーを模索する。進化したAIと人との連携には、いずれはBMI(Brain Machine Interface)が利用されそうだ。(今井 拓司=フリーランスライター)
2021年4月。米NVIDIAが開催した開発者会議「GTC 2021」で深層学習(ディープラーニング)の生みの親とされる3人の研究者が登場し、それぞれが自身の考える深層学習のこれからを語った注1)。
畳み込みニューラルネット(CNN)の開発で知られ、米FacebookのVP and Chief AI Scientistを務めるYann LeCun氏が取り上げたのは「自己教師あり学習(Self-Supervised Learning)」である。現在主流の教師あり学習†では人手による膨大な前処理が必要なのに対し、インターネットにあふれる大量の画像といった未加工のデータをそのまま使って学習できる。実際にFacebookは傘下のサービス「インスタグラム」の約10億枚の画像を用いて自己教師あり学習させたCNNが、様々な画像関連タスクで最高水準の性能を達成したと発表しており、着実に実用化に近づいている1)、注2)。
誤差逆伝播法(バックプロパゲーション)やオートエンコーダーなど数々の成果を上げてきたカナダUniversity of TorontoのGeoffrey Hinton教授が紹介したのは、「GLOM」と呼ぶディープニューラルネットワーク(DNN)の新しい構造(アーキテクチャー)である。画像認識用のDNNを人間の視覚系に近づけることを狙い、トランスフォーマー†、ニューラル場†、対比学習†といった最新技術を活用する構想を提案した2)。人のように画像を認識させるために、被写体の構成要素を自動的に階層的な構造に整理することを目指している。
深層学習は学習技術の進歩とアーキテクチャーの改善の両輪で発達してきたといえる。両氏の発表は、それぞれの方向における研究の最前線を示した格好だ。
今後も両面でのブレークスルーがAIの進化をもたらすことは確実である(図1)。その1つの方向性を示したのが、残る1人、カナダUniversité de MontréalのYoshua Bengio教授だった。自然言語処理や敵対的生成ネットワーク(GAN)の研究などで著名な同氏は、現状の深層学習の限界を、人の脳の情報処理に関する認知心理学の理論から説明する。今のDNNが人の知能の「システム1」に当たるのに対し、今後は「システム2」に匹敵するAIの実現を目指すべきだと主張した。