PR
全2892文字
この記事は日経Robotics 有料購読者向けの過去記事ですが
日経Robotics デジタル版(電子版)』のサービス開始を記念して、特別に誰でも閲覧できるようにしています。
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 強化学習の創始者の一人であり、この分野を長年にわたってリードしてきたUniversity of Alberta教授のRichard Sutton氏が「The Bitter Lesson」(苦い教訓)というタイトルで記事を投稿した(図11)。以下にその内容を簡単にまとめる。

苦い教訓

著者の岡野原大輔氏
著者の岡野原大輔氏

 この70年間のAI研究で得られた最も大きな教訓は、計算能力を活かした汎用の手法が最終的には最も有効であったということである。この背景にあるのはムーアの法則として知られる計算能力の指数的な性能向上である。一般にAIの研究では、エージェントの計算能力は固定だと考える。この場合、AIの性能を向上させるためには人間のドメイン知識をシステムに埋め込むしかない。しかし、一般的な研究プロジェクトの期間より長い期間でみると、計算能力の向上を活かした汎用の手法が最終的に大きな差をつけて有効だとわかる。

 例として、チェスでは1997年に米IBM社のDeep Blueが世界王者のGarry Kasparov氏を破った。この実現のために特別なハードウエアを開発し、力技の探索ベースの手法を利用した。多くのAI研究者は人の知識を埋め込んだ手法が勝つことを願ったがそうではなかった。囲碁はそれから20年を必要としたが、米グーグルDeepMindのAlphaGoが世界トップ棋士のイ・セドル氏を破った。ここでは学習にニューラルネットワークに特化したハードウエアであるTPUを利用し、自己対戦学習とモンテカルロ木探索を利用して破った。音声認識と画像認識でも、専門知識を持った研究者が設計した特徴や識別器を使った手法が多く開発されてきたが、それらは現在、大量の学習データと計算リソースを使った深層学習を利用した手法に置き換わっている。

図1 強化学習の創始者であるRichard Sutton氏
図1 強化学習の創始者であるRichard Sutton氏
[画像のクリックで拡大表示]

 これらの経験をまとめると、AI研究者たちは最初はドメイン知識をシステム上に構築する。それらは短期間では有効だが、いつしか停滞し始め進歩が止まってしまう。そして長期的には全く別のアプローチである計算性能の向上を活かした探索と学習を中心とした手法が大きなブレークスルーを上げ、ドメイン知識を埋め込んだ手法を大きく上回る。これらの成功は人間を中心としたアプローチではないため、AI研究者達には受け入れられず苦味を帯びた成功として受け止められる。

 また、知能や心というのは非常に複雑であり、単純な方法では心の内容(場所、物体、複数エージェントなど)を実現できない。これらは非常に複雑な世界の一部分であるためだ。単純な方法を追求する代わりにこれらの複雑な現象や仕組みを見つけ捉えられるようなメタ手法(手法を見つける手法)を探すべきだ。これらの複雑な現象を近似できる手法を見つけるのは私たちではなく、私たちが開発した手法だ。

AI研究において人がAIに取って代わられるか

 この記事はAI研究者達の間で議論を巻き起こした。この考えを支持する人も多くいれば、反論する人たちもいる。

 例えば、米iRobot社や米Rethink Robotics社の創業者としても知られるロボット研究者のRodney Brooks氏は次の点をあげ批判した(図22)。(1)現在深層学習が最も成功している画像分類では結局人が設計したCNNが重要な役割を果たしている。(2)これらの学習には人の学習とは違って大量の学習データを必要とする。(3)人の脳は20Wで動くのに対し現在のチップは数百Wを必要とする。(4)ムーアの法則は既に終焉を迎えつつある。

図2 iRobot社などを創業したRodney Brooks氏
図2 iRobot社などを創業したRodney Brooks氏
[画像のクリックで拡大表示]

 筆者の観点では、(1)と(2)の問題は計算性能の向上とメタ手法の開発によっていつか解決されるだろうと考えている。

 (1)については、既にネットワーク構造や学習手法自体を探索する手法が多く登場してきている。今はまだ人手で設計したアーキテクチャが優勢だが、コンピュータ性能が今後さらに向上し探索手法が改善されれば、より多くのネットワークや最適化法が自動設計されるようになるだろう。既にグーグルのAmoebaNetなど、人が設計した層を超える層を持つアーキテクチャが登場してきている。

 (2)の学習データを多く必要とする問題は、メタ学習などで複数タスク間の知識を共有化し、1つのタスク当たりに必要な学習データを減らすことができるだろう。現実世界のタスクは多くの共通点がみられる(物理現象、心理モデルなど)。これらを事前にモデル化できていれば、各タスクで新たに知らなければいけないことは少なくなるはずだ。

 それに対し、(3)、(4)の問題が今後解決できるかは不透明だ。確かに既にムーアの法則は終焉を迎え、チップの微細化のペースは鈍り、データ転送速度の向上はTSV(through silicon via、Si貫通電極)など3次元実装の技術を用いても計算性能の向上に追いつかなくなりつつある。汎用を捨て、計算モデルに制約を加え、特化することでチップの指数的な性能向上をまだしばらく維持することはできるが、これがどこまで続けられるかは未知数である。2019年はじめの現在では1W当たり1TFLOPSは達成しつつある(例えば当社のアクセラレータのMN-Coreは半精度で1W当たり1TFLOPSを達成できる)。それに対し、人の脳のリアルタイムシミュレーションには数十PFLOPS必要と推定され、人の脳は20Wで動いているので、1W当たり1PFLOPSの計算が実現できているとされる。全く別のハードウエア、計算機構が必要になるだろうが、エネルギー当たりの計算効率ではまだ1000倍近くの改善は物理的に不可能ではないだろう。

 この議論でみえてきた興味深い観点として、AIが人の仕事を奪うという現象は、AI研究それ自体で既にこの20年近く起き続けているということだ。そこでは人が考えた手法やモデルは機械が生み出したものに置き換わりつつある。

 しかし人の役割が全く消えたわけではない。人はよりメタな手法を扱うようになっている。例えば、モデルを生み出す機械学習や、さらにその機械学習手法自身を生み出すメタ学習など、より抽象的な問題を扱うようになってきている。さらに学習や検証に使うデータをどのように収集し加工するか、問題をどのように設計するかはより多様化している。

本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 1つ言えることは、AI研究ではAIをうまく使いこなしているということだ。これらによってAIの研究自体はより加速し多くの問題が解かれ、またそれ以上に新しい問題が登場している。そこでは人間中心ではないがAIによって人の可能性を広げている萌芽をみることができる。


1)http://www.incompleteideas.net/IncIdeas/BitterLesson.html
2)https://rodneybrooks.com/a-better-lesson/
岡野原 大輔(おかのはら・だいすけ)
Preferred Networks 取締役副社長
岡野原 大輔(おかのはら・だいすけ) 2006年にPreferred Infrastructureを共同創業。2010年、東京大学大学院博士課程修了。博士(情報理工学)。未踏ソフト創造事業スーパークリエータ認定。東京大学総長賞。