全7891文字
PR
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 1000億以上もの膨大なパラメータを持つ、ディープニューラルネットの巨大モデル。それが俄然、面白くなってきた。

 巨大モデルは「GPT-3」などが代表的で、以前はもっぱら自然言語処理の領域で「言語モデル(language model)」として研究されてきた。しかし、ここにきてその潮流を大きく変える動きが出てきた。それが、英DeepMind社が2022年5月に発表した新たなモデル「Gato」である。

 巨大モデルは最近では「foundation model(基盤モデル)」とも呼ばれるようになっており1)、規模の拡大競争が世界的に勃発。今やパラメータ数が1兆個を超えるものまで登場し始めている。

 そうした中、今回DeepMind社が発表したGatoは、モデルの規模自体は12億パラメータほど。一般的なディープニューラルネット(DNN)と比べると十分、大規模だが、拡大が続く昨今の巨大モデルの中では比較的、小粒な方だ。にもかかわらず、なぜGatoが大きな意義を持つのか。