應用

技術

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點新聞
企業(yè)注冊個人注冊登錄

什么是量子計算?

2021-04-15 14:06 與非網(wǎng)

導讀:量子計算使用亞原子粒子的物理學領域來執(zhí)行復雜的并行計算,從而取代了當今計算機系統(tǒng)中更簡單的晶體管。

量子計算機雖然仍處于起步階段,但正在影響已在傳統(tǒng)計算機上運行的新一代模擬技術,量子計算機現(xiàn)在可借助 NVIDIA cuQuantum SDK 進行加速。

在 Steve Jobs 發(fā)布一臺可以放入口袋的計算機的 27 年前,物理學家 Paul Benioff 發(fā)表了一篇論文,表明理論上可以構(gòu)建一個更小更強大的系統(tǒng)——一個量子計算機。

Benioff 于 1980 年描述的概念是利用亞原子物理學命名,這個概念依然在驅(qū)動著今天的研究,包括努力創(chuàng)造下一個計算領域大事件:一個可以在某些方面讓電腦看起來像算盤的古樸的系統(tǒng)。

諾貝爾物理學獎得主 Richard Feynman 通過引人入勝的演講,為廣大聽眾帶來了物理學,他幫助建立了這個領域,勾勒出此類系統(tǒng)如何比傳統(tǒng)計算機更有效地模擬離奇的量子現(xiàn)象。

量子計算是什么?

量子計算使用亞原子粒子的物理學領域來執(zhí)行復雜的并行計算,從而取代了當今計算機系統(tǒng)中更簡單的晶體管。

量子計算機使用量子比特計算,計算單元可以打開,關閉或之間的任何值,而不是傳統(tǒng)計算機中的字符,要么打開,要么關閉,要么是 1,要么是 0。量子比特居于中間態(tài)的能力(稱為“態(tài)疊加”),這為計算方程增加了強大的功能,使量子計算機在某種數(shù)學運算中更勝一籌。

量子計算機的作用

量子計算機可以通過量子比特進行計算,這種計算過程需要耗費傳統(tǒng)計算機無限長的時間,有時甚至根本無法完成。

例如,如今的計算機使用 8 位表示介于 0 到 255 之間的任何數(shù)字。得益于態(tài)疊加原理,量子計算機可以使用八個量子比特同時表示 0 到 255 之間的每個數(shù)字。

這是一項與計算中的并行性類似的功能:所有可能性都是一次性計算,而非按順序計算,從而大幅增加速度。

因此,經(jīng)典計算機每次執(zhí)行一個長除法計算以分解一個龐大的數(shù)字,而量子計算機卻可以僅通過一個步驟獲得答案。砰!

這意味著量子計算機可以重塑整個領域,例如密碼學,這些領域均基于對當今不可能處理的龐大數(shù)據(jù)進行分解。

微型模擬的一大作用

這可能只是個開始。一些專家認為,量子計算機將突破目前阻礙化學、材料科學以及任何涉及量子力學納米級大小的世界模擬的極限。

量子計算機甚至可以幫助工程師對他們在當今最小的晶體管中開始發(fā)現(xiàn)的量子效應進行更精細的量子效果模擬,從而延長半導體的使用壽命。

事實上,專家表示量子計算機最終不會取代經(jīng)典計算機,它們將相互補充。有些人預測,量子計算機將用作加速器,就像 GPU 加速當今的計算機一樣。

量子計算是如何工作的?

不要指望用從當?shù)仉娮由痰甑拇蛘巯淅锘厥盏牧慵泶罱ㄗ约旱牧孔佑嬎銠C,像自己動手組裝一臺個人電腦一樣。

目前,少數(shù)運行中的系統(tǒng)通常需要冷藏,以在絕對零度以上一點創(chuàng)造工作環(huán)境。他們需要這種寒冷的計算環(huán)境來處理為這些系統(tǒng)提供動力的脆弱的量子態(tài)。

要說構(gòu)建量子計算機有多難,一個原型是在兩個激光器之間懸浮一個原子以創(chuàng)建一個量子比特。您可以在家里的工作室試試!

量子計算創(chuàng)造了納米級別非常強大卻有著致命弱點的東西-量子糾纏,那是當一個量子態(tài)中存在兩個或更多的量子比特的情況,這種情況有時由波長僅一毫米的電磁波來測量。

如果波的能量稍微大一些就會失去量子糾纏或疊加態(tài),或者兩者同時失去。結(jié)果就會出現(xiàn)一種叫做量子退相干的噪音狀態(tài),在量子計算中等同于電腦藍屏死機。

量子計算機現(xiàn)在的狀態(tài)如何?

阿里巴巴、Google、Honeywell、IBM 、IonQ和Xanadu等少數(shù)幾家公司都運營著早期幾代量子計算機。

如今,他們提供了數(shù)十個量子比特。但噪音可能較高,導致它們有時不穩(wěn)定。。如要可靠地解決實際問題,系統(tǒng)需要數(shù)萬或數(shù)十萬個量子比特。

專家認為,要進入量子計算機真正有用的高保真時代,還得需要幾十年。

量子計算機正慢慢向商業(yè)用途發(fā)展。(來源:Lieven Vandersypen 在 ISSCC 2017 上的演講。)

關于何時達到所謂量子計算霸權(量子計算機執(zhí)行經(jīng)典計算機無法執(zhí)行的任務的時間)的預測是業(yè)界熱烈討論的問題。

加速量子電路模擬

好消息是 AI 和機器學習領域聚焦于 GPU 等加速器,這些加速器可以執(zhí)行量子計算機用量子比特計算的許多類型的運算。

現(xiàn)在,經(jīng)典計算機已經(jīng)找到了使用 GPU 實現(xiàn)量子模擬的方法。例如,NVIDIA 在我們的內(nèi)部 AI 超級計算機 Selene上進行前沿的量子模擬。

NVIDIA 在 GTC 主題演講上宣布推出 cuQuantum SDK,目的是加速在 GPU 上運行的量子電路模擬。早期研究表明,cuQuantum 能夠提供許多量級的加速。

SDK 采用一種不可知論的方式為用戶提供了可以選擇的最適合其方法的工具。例如,態(tài)向量可提供高保真結(jié)果,但其內(nèi)存需求會隨著量子比特數(shù)量的增大呈指數(shù)級增長。

這會在如今最大的傳統(tǒng)超級計算機創(chuàng)造約 50個量子比特的實際限制。不過,我們已經(jīng)(見下文)看到使用 cuQuantum 加速使用這種方法的量子電路模擬的顯著結(jié)果。

態(tài)向量:1,000 個電路,36 個量子比特,深度 m=10,復雜度 64 | CPU:雙 AMD EPYC 7742 上的 Qiskit | GPU:DGX A100 上的 Qgate

來自 Jülich 超級計算中心的研究人員將在 GTC session E31941深入講解態(tài)向量法的工作(免費注冊)。

一個較新的方法是張量網(wǎng)絡模擬,它使用更少的內(nèi)存和更多的計算來執(zhí)行類似的工作。

利用這種方法,NVIDIA 和加州理工學院使用運行在 NVIDIA A100 Tensor Core GPU 上的 cuQuantum 完成了對最先進的量子電路模擬器的加速。在Selene 上,這個實驗在 9.3 分鐘便從 Google Sycamore 電路的全電路模擬中生成了一個樣本,而18 個月前,專家認為需要使用數(shù)百萬個 CPU 核心花費數(shù)天時間才能完成這項任務。

網(wǎng)絡 - 53 個量子比特,深度 m=20 |CPU:雙 AMD EPYC 7742 上的 Quimb庫 | GPU:DGX-A100 上的 Quimb庫

加州理工學院的研究科學家 Johnnie Gray 說:“通過使用 Cotengra/Quimb 包、NVIDIA新發(fā)布的 cuQuantum SDK 和 Selene 超級計算機,我們在10 分鐘內(nèi)生成了 Sycamore 量子電路樣本,深度m=20”。

加州理工學院化學教授 Garnet Chan 表示:“這為量子電路模擬性能設定了基準,并將有助于提升我們驗證量子電路行為的能力,從而推動量子計算領域的發(fā)展?!盙arnet Chan 教授的實驗室是這項工作的主辦方。

NVIDIA 預計,cuQuantum 的性能提升和易用性將使其成為研究前沿每個量子計算框架和模擬器的基礎元素。