PR

 ポリシーネットワークとバリューネットワークによって試行の範囲を絞り込むため、実際に対戦を行う際にモンテカルロ木探索において実行する試行の回数は、従来のAI囲碁プログラムと比べて大幅に少なくなったという。Googleは試行の少なさを、「1997年にチェスの世界チャンピオンに勝った米IBMの『Deep Blue』がチェスをプレイする際の試行回数の数千分の1」と表現する。Deep BlueのAIチェスプログラムも、ランダムな試行を繰り返していた。試行の回数が少なくて済むということは、スーパーコンピュータのような強力なコンピュータ上でなくてもAlphaGoを実行できることを意味する。

図●AlphaGoの強さ比較
図●AlphaGoの強さ比較
出典:Google
[画像のクリックで拡大表示]

 GoogleはAlphaGoを、囲碁のヨーロッパチャンピオンであるFan Hui氏と対戦させた。囲碁の強さを図る指標として「Elo Rating」があるが、Hui氏のElo Ratingのスコアは「2908」で、AlphaGoはそれを上回る強さだとしている()。AlphaGoは2016年3月に、世界的にも有力なプロ棋士であるLee Sedol氏(プロ9段)と対戦する予定だ。

FacebookのAI囲碁プログラムは誰でも対戦可能

 Facebookは、次の一手の有利さや不利さを判断する部分の開発にConv-Netを使用している。GoogleのAlphaGoにおけるポリシーネットワークに相当する部分で、モンテカルロ木探索における試行の範囲を絞るのに使用している。FacebookのAI研究所のトップを務めるYann LeCun氏はFacebookの書き込みで、「次のステップとして強化学習の採用も検討している」と述べている。

 Facebookがユニークなのは、同社が開発したAI囲碁プログラム「DarkForest」を、オンライン囲碁サイトである「KGS」で対戦可能にしている点だ。LeCun氏は「FacebookのAIに対するアプローチは『(プログラムを)早くリリースして、何度も修正していく』だ」と述べ、Googleのような「大勝負」をするのではなく、市井の棋士と対戦していく方針であるとした。