「ムーアの法則」の量子コンピューター版は「ネーヴンの法則」?
コンピューターの性能向上に関する指標として有名なムーアの法則という、経験則というか予測というか、そういうモノがあります。
「ムーアの法則はもう限界だ」的な事が言われ始めてから、多分10年以上経っていると思いますが、8コアだ28コアだの、あるいは15nmプロセスだの10nmプロセスだの(7nmなんてのもありますが)、なんやかんやでCPUのトランジスタ数は向上を続けて来ました。
とはいえ、7nmといえばそろそろ量子力学的効果が無視できなくなるスケールですので、これ以上に微細化が格段に進むとも思えません。すなわち、半導体をベースにした現在の回路技術では、いずれCPUの集積度は限界に達することは避けられません。
というわけで、ムーアの法則の次、というわけでもないでしょうが、「ネーヴンの法則」というのがあるらしいです。
この「ネーヴンの法則」ですが、普通のアーキテクチャのコンピューター(古典コンピューター)の法則ではなく量子コンピューターの性能向上を予測したものです。
実はこの記事を読むまで、私は「ネーヴンの法則」を知りませんでした。非常に興味深い説ですが、上記記事では「ネーヴンの法則」の根拠についてはほとんど説明されてないので、リンクされている他の記事も読んでみました。
Googleのハルトマット・ネーヴンさんは社内の量子コンピューター開発プロジェクトの進展経緯から、二重指数関数的な成長曲線を想定していて、その二重指数関数的な成長の理由としては、以下の2つがあるとしています。
この2つの指数的向上を合わせて、二重指数関数的な成長曲線を予想しているというわけです。
1番目の理由は、量子コンピューターの性質上、例えば量子コンピューターの量子ビット数が1次関数的に成長するとしたら、その性能は指数関数的に成長することになる、という意味です。
2番目の理由ですが、おそらく「大きな量子プロセッサー」とは「量子ビット数の多い量子プロセッサー」でしょう。量子コンピューターと量子プロセッサーというふたつの単語が出てきましたが、ここでは同じ意味だと思って頂いてかまいません。
<余談> 量子コンピューターといっても、古典コンピューターのようにプロセッサーがあってメモリがあって、ストレージがあって、というコンピューターではなく、量子プロセッサー(量子演算回路と複数の量子ビットの集合体であるレジスター)だけがある状況をイメージして下さい。もちろん、量子ビットの状態を記憶しておける「量子メモリ」の研究も進んでいますが、現在開発中のゲート型量子コンピューターは「演算回路とレジスターだけ」みたいな姿です。</余談>
で、量子回路のエラー率減少により、より多くの量子ビットを持つ量子プロセッサーが作れるようになっていて、量子ビット数の増え方が指数関数的とのこと。エラー率減少の割合と量子ビットの増え方との因果関係は不明なのですが、実績としては指数関数的なのだそうです。
従って、1と2の2つの指数関数的向上を合わせるので、二重指数関数的な成長曲線が現れる、ということになります。
もちろん、この「ネーヴンの法則」が今後も継続するかどうかはわかりませんが、こういう夢のある話は嫌いじゃありません。ただし、量子コンピューターは現在の古典コンピューターが行っている仕事の全てを高速に行えるわけではありませんので、巨大なデータセンターがラックひとつの大きさに、なんていう事は起こりません。
ところで、Googleのハルトマット・ネーヴンさんのコメントを読むと、Googleの量子コンピューター開発はIBMよりもだいぶ先を進んでいるような印象です。実際のところがどうなのかはわかりませんが。