郭光燦院士:中國量子計算機發展明顯落後美國

軍情諜報| 2016-12-29| 檢舉

科技部973項目「量子通信和量子信息技術」的首席科學家郭光燦院士日前表示,中國的量子計算機發展,明顯落後美國,軟體、材料幾乎沒有人做。「十三五」重大研究計劃,量子計算機應當「三駕馬車」一起發展,硬體、軟體、材料三個都要布局。

在談到實際可用的量子計算機究竟什麼時候能做出來時,郭光燦稱,中國和歐洲估計需要15年,美國認為會更快,美國目前的發展確實也更快。儘管落後,畢竟量子計算機尚未研製成功,我們仍有機會,只是時間已越來越緊迫。

郭光燦院士

郭光燦院士是在「紀念HPC @ CAS20周年學術研討會」上的報告中作出以上表述的。29日,中國科普博覽將報告主要內容編輯整理成文,並經郭光燦院士審閱。觀察者網轉載全文如下:

一、「杞人憂天」的物理學家們與量子計算機的誕生

量子計算機的誕生,和著名的摩爾定律有關,還和「杞人憂天」的物理學家們有關。

眾所周知,摩爾定律的技術基礎是不斷提高電子晶元的集成度(單位晶元的電晶體數)。集成度不斷提高,速度就不斷加快,我們的手機、電腦就能不斷更新換代。

圖 1 摩爾定律

在20世紀80年代,摩爾定律很貼切地反映了信息技術行業發展。但「杞人憂天」的物理學家們,卻提出了一個「大煞風景」的問題:

摩爾定律有沒有終結的時候?

之所以提出這個問題,是因為摩爾定律的技術基礎,天然地受到兩個主要物理限制。

一是巨大的能耗,晶元有被燒壞的危險。

晶元發熱主要是因為計算機門操作時,其中不可逆門操作會丟失比特。物理學家計算出每丟失一個比特所產生的熱量,操作速度越快,單位時間內產生的熱量就越多,計算機溫度必然迅速上升,必須消耗大量能量來散熱,否則晶元將被燒壞。

二是為了提高集成度,電晶體越做越小,當小到只有一個電子時,量子效應就會出現。電子將不再受歐姆定律管轄,由於它有隧道效應,本來無法穿過的壁壘也穿過去了,所以量子效應會阻礙信息技術繼續按照摩爾定律發展。

這兩個限制就是物理學家們預言摩爾定律會終結的理由所在。

【隧道效應:由微觀粒子波動性所確定的量子效應,又稱勢壘貫穿。本質上是量子躍遷,粒子迅速穿越勢壘。在勢壘一邊平動的粒子,當動能小於勢壘高度時,按照經典力學,粒子是不可能越過勢壘的;而對於微觀粒子,量子力學卻證明它仍有一定的機率貫穿勢壘,實際也正是如此,這種現象稱為隧道效應。】

雖然這個預言在當時沒有任何影響力,但「杞人憂天」的物理學家們並不「死心」,繼續研究,提出了第二個問題:

如果摩爾定律終結,在後摩爾時代,提高運算速度的途徑是什麼?

這就導致了量子計算概念的誕生。

量子計算所遵從的薛定諤方程是可逆的,不會出現非可逆操作,所以耗能很小;而量子效應正是提高量子計算並行運算能力的物理基礎。

甲之砒霜,乙之蜜糖。對於電子計算機來說是障礙的量子效應,對於量子計算機來說,反而成為了資源。

量子計算的概念最早是1982年由美國物理學家費曼提出的。1985年,英國物理學家又提出了「量子圖靈機」的概念,之後許多物理學家將「量子圖靈機」等效為量子的電子線路模型,並開始付諸實踐。

但當年這些概念的提出都沒有動搖摩爾定律在信息技術領域的地位,因為在相當長時間內摩爾定律依然在支撐著電子計算機的運算速度的飛速提高。

直到今年,美國政府宣布,摩爾定律終結了。微電子未來的發展方向是低能耗、專用這兩個方向,而不再是追求速度。

從這個例子,人們再次看到,基礎研究可能在當時看不到有什麼實際價值,但未來卻會發揮出巨大作用。

二、量子計算機雖然好,研製起來卻非常難

量子計算機和電子計算機一樣,其功用在於計算具體數學問題。

所不同的是,電子計算機所用的電子存儲器,在某個時間只能存一個數據,它是確定的,操作一次就把一個比特(bit,存儲器最小單元)變成另一個比特,實行串列運算模式;而量子計算機利用量子性質,一個量子比特可以同時存儲兩個數值,N個量子比特可以同時存儲2的N次方數據,操作一次會將這個2的N次方數據變成另外一個2的N次方數據,以此類推,運行模式為一個CPU的並行運算模式,運行操作能力指數上升,這是量子計算機來自量子性的優點。量子計算本來就是並行運算,所以說量子計算機天然就是「超級計算機」。

圖 2 量子計算機工作原理

要想研製量子計算機,除了要研製晶元、控制系統、測量裝置等硬體外,還需要研製與之相關的軟體,包括編程、演演算法、量子計算機的體系結構等。

一台量子計算機運行時,數據輸入後,被編製成量子體系的初始狀態,按照量子計算機欲計算的函數,運用相應的量子演演算法和編程,編製成用於操作量子晶元中量子比特麼正操作變換,將量子計算機的初態變成末態,最後對末態實施量子測量,讀出運算的結果。

一台有N個量子比特的量子計算機,要能保證能夠實施一個量子比特的任意操作和任意兩個量子比特的受控非操作,才能進行由這兩個普適門操作的組合所構成的麼正操作,完成量子計算機的運算任務。這是量子晶元的基本要求。如果要超越現有電子計算水平,需要多於1000個量子比特構成的晶元。目前還沒有這個能力做到。這種基於「量子圖靈機」的標準量子計算是量子計算機研製的主流。

除此以外,還有其他量子計算模型,如:單向量子計算,分散式量子計算,但其研製的困難並沒有減少。另外,還有拓撲量子計算,絕熱量子計算等。

由於對硬體和軟體的全新要求,量子計算機的所有方面都需要重新進行研究,這就意味著量子計算是非常重要的交叉學科,是需要不同領域的人共同來做才能做成的複雜工程。

三、把量子計算機從「垃圾桶」撿回來的量子編碼與容錯編碼

實現量子計算機最困難的地方在於,這種宏觀量子系統是非常脆弱的,周圍的環境都會破壞量子相干性(消相干),一旦量子特性被破壞將導致量子計算機並行運算能力基礎消失,變成經典的串列運算。

所以,早期許多科學家認為量子計算機只是紙上談兵,不可能製造出來。直到後來,科學家發明了量子編碼。

量子編碼的發現等於把量子計算機從「垃圾桶」里又撿回來了。

採用起碼5個量子比特編碼成1個邏輯比特,可以糾正消相干引起的所有錯誤。

不僅如此,為了避免在操作中的錯誤,使其能夠及時糾錯,科學家又研究容錯編碼,在所有量子操作都可能出錯的情況下,它仍然能夠將整個系統糾回理想的狀態。這是非常關鍵的。

什麼條件下能容錯呢?這裡有個容錯閾值定理。每次操作,出錯率要低於某個閾值,如果大於這個閾值,則無法容錯。

這個閾值具體是多大呢?

這與計算機結構有關,考慮到量子計算的實際構型問題,在一維或准一維的構型中,容錯的閾值為10^-5,在二維情況(採用表面碼來編碼比特)中,閾值為10^-2。

目前,英國Lucas團隊的離子阱模型、美國Martinis團隊的超導模型在單、雙比特下操作精度已達到這個閾值。

所以我們的目標就是研製大規模具有容錯能力的通用量子計算機。

四、量子計算機的「量子芯」

量子晶元的研究已經從早期對各種可能的物理系統的廣泛研究,逐步聚焦到了少數物理系統。

20世紀90年代時,美國不知道什麼樣物理體系可以做成量子晶元,摸索了多年之後,發現許多體系根本不可能最終做成量子計算機,所以他們轉而重點支持固態系統。

固態系統的優點是易於集成(能夠升級量子比特數目),但缺點是容錯性不好,固態系統的消相干特別嚴重,相干時間很短,操控誤差大。

2004以來,世界上許多著名的研究機構,如美國哈佛大學,麻省理工學院,普林斯頓大學,日本東京大學,荷蘭Delft大學等都投入了很大的力量,在半導體量子點作為未來量子晶元的研究方面取得一系列重大進展。最近幾年,半導體量子晶元的相干時間已經提高到200微秒。

國際上,在自旋量子比特研究方面,2012年做到兩個比特之後,一直到2015年,還是停留在四個量子點編碼的兩個自旋量子比特研究,實現了兩比特的CNOT(受控非)。

雖然國際同行在電荷量子比特的研究中比我們早,但是至今也只做到四個量子點編碼的兩個比特。我們研究組在電荷量子比特上的研究,從2010年左右製備單個量子點,然後2011年雙量子點,2012~2013年實現兩個量子點編碼的單量子比特, 2014~2015實現四量子點編碼的兩個電荷量子比特,目前已研製成六個量子點編碼為三個量子比特個並實現了三個比特量子門操作。已經達到國際領先水平。

表 1 與國際領先研究的對比

超導量子晶元要比半導體量子晶元發展得更快。

近幾年,科學家使用各種方法把超導的相干時間儘可能拉長,到現在也達到了100多微秒。這花了13年的基礎研究,提高了5萬倍。

特別是,超導量子計算在某些指標上也表現更好,分別是:

1.量子退相干時間超過0.1ms,高於邏輯門操作時間1000倍以上,接近可實用化的下限。

2.單比特和兩比特門運算的保真度分別達到99.94%和99.4%,達到量子計算理論的容錯率閾值要求。

3. 已經實現9個量子比特的可控耦合。

4. 在量子非破壞性測量中,達到單發測量的精度。

5. 在量子存儲方面,實現超高品質因子諧振腔。

美國從90年代到現在,在基礎研究階段超導領域的突破,已經引起了企業的重視。美國所有重大的科技公司,包括微軟、蘋果、谷歌都在量子計算機研製領域投入了巨大的力量,以期全力爭奪量子計算機這塊「巨大的蛋糕」!

其中,最典型的就是谷歌在量子計算機領域的布局。它從加州大學聖芭芭拉分校高薪引進國際上超導晶元做得最好的J. Matinis團隊(23人),從事量子人工智慧方面的研究。

他們制定了一個計劃:明年做到50個量子比特,定這個目標是因為,如果能做49個量子比特的話,在大數據處理等方面,就遠遠超過了電子計算機所有可能的能力。

整體來看,量子計算現在正處於「從電晶體向集成電路過渡階段」。

五、尚未研製成功的量子計算機,我們仍有機會!

很多人都問,實際可用的量子計算機究竟什麼時候能做出來?

中國和歐洲估計需要15年,美國認為會更快,美國目前的發展確實也更快。

量子計算是量子信息領域的主流研究方向,從90年代開始,美國就在這方面花大力氣研究,在硬體、軟體、材料各個方面投入巨大,並且它有完整的對量子計算研究的整體策劃,不僅各個指標超越世界其他國家,各個大公司的積極性也調動了起來。

美國的量子計算機研製之路分3個階段:第一階段政府主導,主要做基礎研究;第二階段,企業開始投入;第三階段,加快產出速度。

反觀中國的量子計算機發展,明顯落後,軟體、材料幾乎沒有人做,軟硬體是相輔相成的,材料研究也需提早做準備。「十三五」重大研究計劃,量子計算機應當「三駕馬車」一起發展,硬體、軟體、材料三個都要布局。

儘管落後,畢竟量子計算機尚未研製成功,我們仍有機會,只是時間已越來越緊迫!只要能發揮我國制度的優越性,集中資源有步驟地合理布局、支持,仍然大有可為!

文章來源: https://www.twgreatdaily.com/cat90/node1385880

轉載請註明來源:今天頭條