近日,Google 宣布推出量子機器學習開源庫 TensorFlow Quantum。
這一開源庫集成了 Google 之前開源的量子計算框架 Cirq 和機器學習框架 TensorFlow。Cirq 提供了一個軟件模擬器來運行量子算法,不要求開發者必須有一臺真實的量子計算機。而 TensorFlow 是一個封裝了底層深度學習模型的軟件庫。簡言之,不管是 Cirq 還是 TensorFlow,都是為了降低新技術門檻而生。借助這些開源工具,開發者可以更快更省地打造量子計算或機器學習應用。
Google 現在把兩者結合了起來,能讓開發者利用經典或者量子數據,快速打造一個混合的量子-經典模型原型,以期推動量子計算和機器學習社區發現更能發揮量子優勢的新算法。
雖然量子計算和機器學習都是技術熱詞,但分屬完全不同的領域。兩者為什么能結合在一起?量子計算能給機器學習帶來什么?一切要從經典數據和量子數據的區別說起。
跳出 0 和 1 的局限
所謂經典數據和經典模型,都是相對于量子而言。現在流行的計算機被稱為經典計算機,信息量的基本單位是比特,在二進制中取值不是 0 就是 1。
而遵循量子力學規律打造的計算機被稱為量子計算機,信息量的基本單位是量子比特,在取值前處于不確定狀態,即疊加態。也就是說,量子比特可以同時處于 “0” 和 “1” 的狀態。
有人做過一個比喻:經典比特是 “開關”,只有開和關兩個狀態(0 和 1),而量子比特是 “旋鈕”,就像收音機上調頻的旋鈕那樣,有無窮多個狀態。經典計算機通過操縱經典比特進行運算,而量子計算機是操縱量子比特,本質上就是去旋轉它們。
量子疊加這種特性決定了在同樣比特數量的情況下,量子比特能存儲比經典比特更多的信息。
比如,把 1 個“0”和 1 個“1”放在一起,會有 4 個組合狀態:00、01、10、11。2 個經典比特只能是其中 1 種狀態,而 2 個量子比特可以同時包含這 4 個狀態,并且每個狀態都有一定的權重。
只有當人們去讀取量子比特時,同時包含 4 個狀態的量子比特才會變化為其中一個狀態。正是由于這種疊加的特性,量子計算機具備了強大的并行計算能力。
▲(“薛定諤的貓” 就是解釋量子疊加的一個思想實驗)
除了疊加,量子還有個特性是“糾纏”。糾纏性可以讓多個量子比特共享狀態,創造出 “超級疊加” 的量子并行計算,計算能力隨比特數增加呈指數級增長。
理論上,擁有 300 個量子比特的量子計算機,瞬間所能執行的并行計算次數比宇宙中的原子總數還多。
對于量子計算的并行性,微軟 CEO Satya Nadella 在 2017 年微軟 Ignite 大會上,用找迷宮出口來比喻解釋:
為了找到迷宮的出口,經典計算機先開啟一條搜索路徑,遇到障礙物后會沿原路返回。之后再次探尋新路,直到遇障返回或找到了正確出口。雖然最終能找到一個結果,但這種方法相當耗時。
對比之下,量子計算機解鎖了神奇的并行性。它們同時探尋玉米迷宮中的每一條路。因此,量子計算機可能指數級減少解決問題的步驟。
中國科學院院士潘建偉也曾說:“如果傳統計算機的速度是‘自行車’,那么量子計算機的速度就是‘飛機’。”
這種遠遠超過經典計算機的計算性能,正是機器學習所需要的。眾所周知,當下這次以機器學習方法為代表的人工智能浪潮,是算力、算法和數據相結合的結果。
如果機器學習任務無法快速計算完成,那么經濟價值就無法得到體現。當前,企業和學界普遍采用 GPU 和 FPGA 等適合并行計算的通用芯片來實現加速,但這些方法依然是基于經典計算機。
速度遠遠超越經典計算機的量子計算機,自然而然和機器學習聯系起來。
量子機器學習是如何實現的
早在 1995 年,美國路易斯安那州立大學 Kak 教授首先提出了“量子神經計算”的概念。而后,量子聚類、量子深度學習和量子向量機等算法相繼被提出。2015 年,潘建偉教授團隊在小型光量子計算機上,首次實現了量子機器學習算法 。
事實上,已有的量子機器學習算法主要可細分為 3 類。第一類,機器學習的整體計算依然采用經典計算機,但把比較復雜的計算轉換成量子版本,用量子計算機來運行。
▲(圖片來自《量子機器學習算法綜述》
第二類是“尋找量子系統的力學效應、動力學特性與傳統機器學習處理步驟的相似點,將物理過程應用于傳統機器學習問題的求解,產生出新的機器學習算法”。第三類,則是借助機器學習力去研究量子系統。
目前,對量子機器學習的研究大多集中在第一類。在具體的執行層面上,要用量子計算機來運行經典機器學習復雜計算的部分,首先要把經典數據轉換成量子數據。
然后把量子數據輸入量子計算機,用量子算法計算完成后輸出。由于輸出的計算結果依然是量子疊加態的,所以最后還需要進行測量,把經典數據提取出來。
雖然量子計算的特性和機器學習非常契合,但整體而言量子機器學習還處于初級階段。并且,不是所有的經典機器學習算法都可以用量子計算加速。
量子機器學習算法實用化的硬件條件也還沒有成熟。據科技日報報道,在通用量子計算機建造成功之前,量子機器學習算法很難在實際應用中展現出其數據處理方面的強大能力。
這次開源 TensorFlow Quantum 的 Google,也是一直在打造自己的量子計算機。2019 年 10 月 23 日,Google 在 Nature 上刊登了關于 “實現量子優越性” 的論文 ,他們制造出了 53 個量子比特數的量子計算機,計算能力超經典超級計算機。同樣的計算量,量子計算機用 200 秒就完成了,而目前最強的經典超級計算機,要花費 10000 年才能完成。
“量子優越性” 是指量子計算機可以完成經典計算機無法做到的事情。這個概念最早由加州理工學院理論物理教授 John Preskill 在 2012 年提出。
▲(Google CEO 桑德爾·皮蔡和量子計算機)
Google 用 53 個量子比特實現了“量子優越性”是一個里程碑式的事件,但離通用量子計算機的要求(通常認為需要 100 萬個量子比特)還是很遙遠。盡管如此,依然有越來越多學術機構和公司投入到了量子機器學習領域。并且,在一些具體的場景(如圖像分類),量子機器學習也已經被證明了其可行性。
-
Google
+關注
關注
5文章
1770瀏覽量
57696 -
機器學習
+關注
關注
66文章
8435瀏覽量
132885 -
量子計算
+關注
關注
4文章
1108瀏覽量
35000
發布評論請先 登錄
相關推薦
評論