2018年6月のCeBIT 2018でIBMが展示した量子コンピュータの模型 flowgraph / Shutterstock.com

 本稿で対象としている量子コンピュータは、量子アニーリングマシンや古典コンピュータをはじめとするあらゆるコンピュータの上位互換である。前述のように、古典コンピュータよりも指数関数的に高速であることが数学的に保証されている数学的問題はそれほど多くはないものの、古典コンピュータや量子アニーリングマシンで計算できる問題は、すべて量子コンピュータで処理できる。

 ただ、量子コンピュータはノイズやエラーに対して非常に脆弱であるため、量子エラー訂正技術を実装しなければ正確に動作しない。それに対し、量子アニーリングマシンは、ある程度のノイズが存在しても近似解を出力できる強固なコンピュータであると考えられている。そのため集積化や商用化のための難易度が、量子コンピュータの場合に比べて非常に低い。

 我々研究者の究極の夢は、もちろん量子誤り訂正機能を搭載した大規模量子コンピュータ(誤り耐性量子コンピュータ)の実現である。例えば、大規模分子の量子化学シミュレーションを行うためには100万から1億量子ビット程度の集積化が必要となる。しかしながらそのためには、後述するように長い時間をかけて多くの技術的ハードルを乗り越えなければならない。

 そこで、既に商用化している量子アニーリングマシンと、近未来に実現可能なNoisy Intermediate-Scale Quantum(NISQ)コンピュータが現在の技術トレンドとなっている。NISQとは、誤り訂正機能を搭載していないノイジーな50~100量子ビット級の中規模量子コンピュータのことである。将来的には、量子アニーリングマシンとNISQで培われる設計・製造・実装・周辺エレクトロニクス・アナログ信号処理・デバイス性能評価・配線・冷凍機・ミドルウェア・ソフトウェア・クラウド・ベンチマーキング技術などが、誤り耐性量子コンピュータの開発に大いに活用されるはずだ。

大規模化するための技術的ハードルは山積み

 今後、量子版ムーアの法則に従って超伝導量子コンピュータの集積度は順調に増大し続けるだろうか? 超伝導量子コンピュータのハードウェア開発に携わる一研究者としての率直な意見は、「極めて困難」である。なぜなら、大規模化するために乗り越えなければならない技術的ハードルが山積みだからである。順を追って説明しよう。

 まず、チップサイズの問題がある。1つの超伝導量子ビットのサイズは約0.1mm角である。もし、1億量子ビットを集積化すると、チップ全体のサイズは体育館程度と巨大になってしまう。その巨大なチップを10mKという極低温に冷却する高度な冷凍技術が必要となる。そうでなければ三次元実装技術を駆使してチップサイズを小さくするかだが、これにも高度な製造技術や排熱技術が必要になる。もしかしたら超伝導を捨てて、nm(ナノメートル)スケールの微細化と高温動作が可能で、大規模化集積技術が確立しているシリコンCMOSを用いたシリコン量子コンピュータへの転換が近い将来に必要になるかもしれない。

 配線とそれに伴う熱流入の問題も非常に深刻である。超伝導量子コンピュータは、外部から冷凍機内部まで大量の配線で繋がっており、配線の数は量子ビット数と同じぐらい必要になる。つまり、量子コンピュータは配線のお化けである。