全2455文字

 実用的な性能を発揮できる「誤り訂正が可能な量子コンピューター」を2029年までに開発するとの目標を、米Google(グーグル)がついに公式発表した。しかし量子コンピューターの実用時期については「もっと早くなる」との見方もある。金融大手の米Goldman Sachs(ゴールドマン・サックス)はその時期を「5~10年以内」とし、米Amazon Web Services(アマゾン・ウェブ・サービス、AWS)も気になる動きを見せている。

 グーグルのSundar Pichai(スンダー・ピチャイ)CEO(最高経営責任者)は2021年5月中旬に開催した年次カンファレンス「Google I/O」で、100万量子ビットを搭載した誤り訂正ができる量子コンピューターを2029年までに開発するとのロードマップを明かした。

 量子コンピューターが、従来型のコンピューター(古典コンピューター)ではなし得ない実用的な性能を発揮するには、数百~数千個の量子ビットが必要とされる。しかも量子ビットの情報は非常に壊れやすいため、別の量子ビットによってその情報が消えないように補わなければならない。

 これが量子ビットの誤り訂正技術だ。情報が消えない「論理量子ビット」を1個作り出すためには、1000個の「物理量子ビット」が必要とされる。100万個の物理量子ビットがあれば、論理量子ビットを1000個作れることになる。論理量子ビットが1000個あれば、分子の内部の現象を再現する「量子化学シミュレーション」などに活用できると期待されている。なおRSA暗号の解読などには、もっと多くの論理量子ビットが必要になる見通しだ。

 現在の量子コンピューターは「NISQ(Noisy Intermediate-Scale Quantum Computer、ノイズがありスケールしない量子コンピューター)」と呼ばれ、物理量子ビットの数が数十個と少なく、量子ビットの誤り訂正ができないため、実用的な性能は発揮できていない。グーグルは今後、物理量子ビットの数を100個、1000個、1万個と段階的に増やしていって、2029年までに100万量子ビットのハードウエアの実現を目指す。

ゴールドマン・サックスが新アルゴリズムを開発

 量子コンピューターの実用化時期については、「もっと早くなる」との見方も存在する。そうした主張には2つの種類がある。1つは5~10年以内に登場するNISQのハードウエアであっても、従来型コンピューターよりも大幅な性能向上が期待できるとの見方。もう1つは、もっと早い段階で量子誤り訂正が実現可能になるとの見方だ。前者についてはゴールドマン・サックスが、後者についてはAWSが気になる発表をしている。

 ゴールドマン・サックスは2021年4月29日(米国時間)に、米スタートアップのQC Ware(QCウエア)と共同で、金融分野においては量子コンピューターの実用時期が5~10年以内に到来するとの研究成果を発表した。

 ゴールドマン・サックスとQCウエアは、デリバティブ(金融派生商品)のリスク分析などに必要な「モンテカルロシミュレーション」を、5~10年以内に登場するNISQの量子コンピューターを使って実行する新しいアルゴリズムを開発した。