
AI最前線
Preferred Networks岡野原氏によるAI解説◆(日経Robotics連載)
目次
-
AlphaFold、50年間の生命科学のグランドチャレンジを解く
PFN岡野原氏によるAI解説:第75回
遺伝子配列からタンパク質の立体構造を決定する問題、いわゆるProtein Folding問題は生命科学におけるグランドチャレンジとして50年近く、多くの研究者が取り組んできた。タンパク質の立体構造がわかれば生体内の様々な機構解明につながる上、疾病の原因解明や創薬につながると期待されている。
-
AIを使った汎用原子レベルシミュレーター、Matlantis
PFN岡野原氏によるAI解説:第74回
2021年7月6日、Preferred NetworksとENEOSの共同出資で設立されたPreferred Computational Chemistry(略称PFCC、筆者が代表を務めている)は汎用原子レベルシミュレーターMatlantis1)をクラウドサービスとして提供開始したことを発表した…
-
知識蒸留:巨大なモデルの知識を抽出する
PFN岡野原氏によるAI解説:第73回
知識蒸留(以下、蒸留)は学習済みモデルの予測結果を学習目標として、他のモデルを学習させる手法である。アルコールの蒸留と同様にモデルから重要な知識だけを抽出することからこの名前が与えられている。
-
離散化生成モデル
PFN岡野原氏によるAI解説:第72回
現実世界の多くが連続値で表される。時空間は連続であるし、物体やその性質、サイズ、形状、重さなどを表すのも連続値であり、画像や音声など観測シグナルも連続量で表される。
-
Rotation Averaging:高速かつ最適な姿勢推定を実現する
PFN岡野原氏によるAI解説:第71回
ビジョンやロボティクスタスクにおいて姿勢推定は重要なタスクである。複数の異なる視点での観測から、各観測時のカメラの位置姿勢(以下姿勢)を推定することで現在の状態を推定したり3次元復元などの幾何認識を実現できる。
-
GLOM:パース木による画像認識の実現を目指して
PFN岡野原氏によるAI解説:第70回
人間は画像認識を行う際、対象をパース木として認識していると考えられる1)。パース木の根(計算科学で扱う木のように根を一番上、葉を一番下と逆さまで表された木構造である)は対象の全体の概念を表し、各節点の子は節点が表す概念の部分を表す。例えば、猫を認識したパース木は猫全体を表す根があり、その子に、頭、…
-
深層学習を使った物理シミュレーションの高速化
PFN岡野原氏によるAI解説:第69回
様々な問題の物理シミュレーションは、シミュレーション技術の改良や計算機の性能向上により実応用が進んできたものの、まだ精度や速度面で困難な場合が多くある。
-
機械学習の新べき乗則、大きなモデルを使うと汎化しサンプル効率も改善する
PFN岡野原氏によるAI解説:第68回
世の中の現象の多くがべき乗則で説明できる。例えばジップの法則は出現頻度が$x$番目に大きい単語の頻度は、1位の単語と比較して1/xの頻度であるというものである。パレートの法則(全体の数字の8割が2割の構成要素で実現されている)、友人の数や地震の大きさの分布などについてもそうだ。
-
人や動物の空間理解の仕組みをAIに活かせるか
PFN岡野原氏によるAI解説:第67回
人や動物が空間をどのように理解し処理しているかについてある程度わかってきている。例えば、ネズミを使った実験では、脳内には特定の位置にいるときだけ反応する場所細胞、特定のグリッド上に存在する時に反応するグリッド細胞が存在し、これらを組み合わせて空間中のどこにいるのかを表現したり、ナビゲーションできる…
-
画像からの3次元シーン理解に向けて、局所特徴量に基づく画像マッチング
PFN岡野原氏によるAI解説:第66回
対象物を違う視点から撮影した画像間では3次元空間中の同じ位置に対応する箇所について対応をとることができる。計算量や精度の観点から疎な特徴点を抽出し、それらの対応を求めることが一般的である。このようなタスクを局所特徴量に基づく画像マッチング(以降省略して画像マッチング)と呼ぶ。
-
Transformerが全タスクの標準ネットワークアーキテクチャになるか
PFN岡野原氏によるAI解説:第65回
深層学習(ディープラーニング)はタスク毎に異なるネットワークアーキテクチャを使ってきた。画像認識であればCNN(畳み込みニューラルネットワーク)、自然言語処理であればRNN(回帰結合型ニューラルネットワーク)、表データや座標など入力が構造を持たないようなタスクに対してはMLP(多層パーセプトロン)…
-
Energy-Based Model:ノイズを復元して生成モデルを学習する
PFN岡野原氏によるAI解説:第64回
深層学習を使ってデータを生成する深層生成モデルとして、変分自己符号化器(VAE)、敵対的生成モデル(GAN)、自己回帰モデル、正規化フローなどが知られている。これらのモデルは従来のモデルには難しかった高次元(数万〜数百万次元)の自然画像や音声データ生成に成功しており、生成されたサンプルは本物と見分…
-
オフライン強化学習:データ主導型学習に向けて
PFN岡野原氏によるAI解説:第63回
強化学習は学習ベースの制御を実現し、囲碁のトップ棋士を破ったAlphaGoを代表的な事例として、ロボティクス、自動運転、金融、医療/ヘルスケア(処置の判断)など幅広い分野で成果を収めている。一方で強化学習は学習中に環境との相互作用(試行錯誤)を必要とするため、その実現のハードルが高かった。
-
MN-3/MN-Core:世界で最も省電力性能に優れたスーパーコンピュータ
PFN岡野原氏によるAI解説:第62回
2020年6月、International Supercomputing Conference (ISC 2020)で発表されたスーパーコンピュータの世界ランキングにおいて、著者が所属するPreferred Networks(PFN)のスーパーコンピュータMN-3が電力あたりの演算性能(省電力性能…
-
シミュレーションに基づく推論、観測からパラメータを帰納的に推定する
PFN岡野原氏によるAI解説:第61回
多くの科学領域でシミュレーションが使われるようになっている。例えば、素粒子物理、分子動力学、流体力学、疫学、経済学、気象モデル、生態学、機械工学などである。これらの分野で使われるシミュレーションは、対象問題を忠実に再現できるようになっているが、推論、つまり観測からその現象を記述するパラメータや、観…
-
正規化層:ニューラルネットワークの学習の安定化、高速化、汎化に大きな貢献
PFN岡野原氏によるAI解説:第60回
ニューラルネットワークの学習で重要な役割を担っているのが正規化層(Normalization Layer)である。正規化層はニューラルネットワークの表現力の維持、学習の安定化、汎化性能の向上に貢献し、現在の深層学習の成功の主因の1つとみなせる。
-
対称性は学習にどのように活かせられるか
PFN岡野原氏によるAI解説:第59回
世の中の多くの現象には対称性がみられる。ある対象Mが対称性Sを持つとは、Sで指定された操作g in SをMに適用してもMが変わらないことを言う。例えば、球体は任意の回転操作を適用しても球体のままだし、左右対称な図形は左右反転操作を適用しても図形は変わらない。
-
3次元形状をどのように表現するか、DCGANやGQNに匹敵するブレークスルーも
PFN岡野原氏によるAI解説:第58回
物体の形状や環境(構造物や背景)の3次元情報をどのように表現するかは難しい問題である。基本的な問題に思えるが実際どのように表現するかを考えてみると難しい。形状表現は少ない容量(パラメータ数)で表すことができ、衝突判定や法線計算など様々な処理が高速に行えるか、似た部品や形状を共通に扱えるかが問題とな…
-
先読みに基づいたプランニング、学習化シミュレータとモンテカルロ木探索
PFN岡野原氏によるAI解説:第57回
先読みに基づいたプランニングは強力なエージェントを作る上で重要である。例えばチェス、将棋や囲碁などではトッププレーヤーをはるかに超える強さを実現したAIシステムが先読みによって実現されている。
-
AIによるシミュレーションの進化
PFN岡野原氏によるAI解説:第56回
シミュレーションまたはコンピュータモデリングはシミュレーション自体の技術の発展と計算性能や性能コスト比の指数的な改善によって広い分野で使われるようになっている。シミュレーションは対象問題の原理・原則、公式が分かっているなら、データに基づかなくても正確にシミュレーションできる。