作為Intel公司的Fellow,Alan Gara表示隨著神經形態計算、量子計算等新型計算、存儲、通信技術快速推動百億億次計算成為現實,人工智能與高性能計算將走向融合。
英特爾數據中心事業部的Fellow艾倫·加拉(Al Gara)表示,隨著我們使用新的計算、存儲和通信技術以及神經形態芯片和量子計算芯片向百億億級未來過渡,高性能計算和人工智能之間的關聯將會越來越緊密。加拉認為,“人工智能(AI)、數據分析和傳統仿真的融合將帶來具有更廣泛功能和可配置性以及交叉授粉(cross pollination)特質的系統。”
加拉為這一高性能計算(HPC)和人工智能交織的未來設定了十分具有挑戰性的硬件目標。在這一未來中,硬件會提供百億億次以上的雙精度使用性能,且會在減少精度運算的情況下提供更高的性能。他相信,如果用戶將重點放在單位內存容量的計算性能上,那么用戶將跨各種架構獲得豐厚回報,并為系統軟件和用戶應用程序提供通過百億億級及更高級別計算保持指數級性能增長的機會。
1.“三大支柱”的統一
加拉提出的愿景基于高性能計算“三大支柱”的統一:人工智能(AI)和機器學習(ML);數據分析和大數據;以及高性能計算(HPC)。這意味著未來的用戶會使用互相利用并通過內存交互的模型進行編程。
具體而言,英特爾正在努力研究高度可配置的百億億級系統,該系統可支持到全新技術的升級,其中包括可擴展處理器、加速器、神經網絡處理器、神經形態芯片、FPGA、英特爾持久內存、3D NAND和自定義硬件。
加拉的愿景有一個共同特征,那就是同一架構會通過配置涵蓋高性能計算、人工智能和數據分析,這意味著這些不同的硬件后端需要擁有一致的軟件環境來處理高性能計算和人工智能工作負載。
目前,加拉的愿景有一個非常實際的實例,即在TensorFlow等熱門機器學習軟件包中使用Intel nGraphT庫。從本質上來說,Intel nGraph庫被用作中間語言(類似于LLVM),可在從CPU到FPGA、專用神經網絡處理器等各種硬件平臺上提供優化的性能。
英特爾人工智能產品事業部首席技術官辦公室的杰森·奈特(Jason Knight)如是寫道,“我們將Intel nGraph庫視為由流行深度學習框架的優化通道(optimization pass)、硬件后端和前端連接器構成的生態系統的開端。”
整體而言,加拉指出“高性能計算實際上是許多架構的發源地…和測試環境”,因為高性能計算編程人員、研究人員和領域科學家通過探索架構空間描繪出了如下性能格局:
數據級別并行(從細粒度到粗粒度)
節能加速器(計算密度和能源效率通常是相關的)
在所有級別利用可預測的執行(緩存到粗粒度)
集成的固定功能數據流加速器
通用數據流加速器
2.技術機遇
高性能計算和人工智能科學家將有機會獲得并能夠利用許多新網絡、存儲和計算架構的性能功能。
其中,高性能計算是光學技術的重大驅動因素,這是因為光纖是超級計算機最具挑戰性且成本最高昂的要素之一。出于此原因,加拉認為,隨著我們過渡到線性設備和環形設備以及使用不同波長的光進行通信的光學設備,硅基光子學將產生顛覆性影響,集成硅基設備或光學設備的能力將帶來巨大的經濟和性能優勢,包括增長空間(從技術角度而言)。
新的非易失性存儲技術(例如英特爾持久內存)正在模糊內存和存儲之間的界線。加拉描述了一種用于百億億級超級計算機的新存儲堆棧,當然,此類堆棧也可在通用計算集群中實施。
加拉評論道,關鍵在于此類堆棧是為了使用NVM存儲而重新設計的。這會帶來與任意對齊和事務大小相關的高吞吐IO操作,因為應用程序可通過新的用戶空間NVMe/pmem軟件堆棧執行超細粒度IO。在系統級別,這意味著用戶將能夠在軟件托管的自我修復型冗余環境中使用可擴展的通信和IO操作跨同源、無共享服務器管理大規模分布式NVM存儲。換而言之,高性能、大容量的可擴展存儲能夠支持大數據和核心內算法以及針對稀疏及非結構化數據集的數據分析。
科研人員正在利用內存性能和容量方面的進步來改變我們處理人工智能和高性能計算問題的方法。美國猶他大學(University of Uta)和沙特阿拉伯阿卜杜拉國王科技大學(King Abdullah University of Science and Technology,KAUST)都在做這方面的工作。
例如,猶他大學的科研人員強調了對數運行時算法在Ospray可視化軟件包中的重要性。對數運行時算法對于大型可視化和百億億級計算而言十分重要。運行時基本上隨數據規模的增長而緩慢增長。但即使數據規模呈數量級增長,運行時的增長仍然會十分緩慢,因而對數增長十分重要。否則,運行時增長會阻止計算在合理的時間內完成,從而讓大內存容量計算機的優勢消失殆盡。
因此,提供低延遲數據訪問的大內存容量計算節點成為能夠在博弈中與大規模并行加速器競爭并獲勝的使能技術。猶他大學的研究表明,相較擁有128個節點的GPU集群而言,單一大內存(三萬億字節)工作站可提供具有競爭力,甚至更加優秀的交互式渲染性能。猶他大學的研究小組還在使用P-k-d樹和其他快速核心內方法探索原位可視化(in-situ visualization),以展示大型“直接”核心內技術是傳統高性能計算可視化方法的可行替代方案。
在第二個示例中,KAUST一直在與英特爾和東京工業大學(Tokyo Institute of Technology)協作,增強用于多核心(multi-core)和許多核心(many-core)處理器的數值工具生態系統。想象一下使用CPU技術以在數學和計算方面都高效的方式處理十億乘以十億的超大規模矩陣會是什么樣子。
非高性能計算科學家十分認可線性代數和快速多級方法(Fast Multi-pole Methods,FMM)中這些貢獻的重要性,因為數值線性代數是工程、物理、數據科學和機器學習領域中幾乎所有應用的根源所在。FMM方法已被列為二十世紀十大算法之一。
結果表明,相較使用目前在相同硬件上運行的英特爾數學核心函數庫(Intel Math Kernel Library,Intel MKL)等經過高度優化的庫,高性能計算科學家現在能夠以更快的速度解決更大的密集線性代數問題和FMM相關數值問題。這些方法已在名為ExaFMM和HiCMA的經過高度優化的庫中提供。
3.展望未來:神經形態計算和量子計算
代號為“Loihi”的新神經形態測試芯片可能能夠代表人工智能領域的相變,因為它們能夠“自學”。目前,數據科學家花費了大量時間處理相關數據,以創建用于訓練神經網絡解決復雜問題的訓練數據集。神經形態芯片讓人們不再需要創建訓練數據集(例如,整個過程無人類的干涉)。相反,人類需要在神經形態硬件發現解決方案后驗證其準確性。
簡單說來,神經形態計算利用與機器學習和深度學習領域中使用的傳統神經網絡完全不同的計算模型。此模型可更準確地模仿生物大腦的運行,因此,神經形態芯片只需通過觀察其所處的環境就能以事件驅動的方式“學習”。此外,它們的運行方式非常節能。時間將告訴我們這是否能夠以及何時能夠帶來優勢。好消息是,神經形態硬件現在已經進入市場。
加拉表示,目標在于創建在當前架構下提供100倍以上能源效率的可編程架構,從而更加高效地解決人工智能疑難問題。他提供了稀疏編碼、字典學習、約束補償(constraint satisfaction)、模式匹配以及動態學習和適應等示例。
最后,加拉介紹了量子計算領域取得的進步,這是通過與荷蘭代爾夫特理工大學(Delft University)協作實現的。這項協作旨在生成更好的Qubit(量子比特)、增強Qubit之間的關聯以及開發可擴展的IO。量子計算是非直觀的,因為大多數人無法直觀地理解糾纏的概念或同時處于多個狀態的物質。但是,網絡上仍然有加拿大滑鐵盧大學(University of Waterloo)的《量子計算101》(Quantum Computing 101)等優秀資源,可幫助人們了解這一快速進步的技術。如果成為現實,這項技術將永遠改變我們的計算世界。
量子計算使得解決目前對于普通計算機而言棘手的問題成為可能。加拉重點介紹了英特爾的量子計算工作目前在量子化學、微型架構和算法協同設計,以及后量子安全密碼方面的應用。
4.總結
現在,新的計算、存儲和制造技術不斷涌現,這讓人工智能和高性能計算社區不得不重新思考其傳統方法,以便能夠使用這些比以往性能更高的可擴展且可配置的架構。艾倫·加拉指出,技術正在推動“三大支柱”的統一,這也會反過來讓人工智能和數據中心內高性能計算的未來無法區分開來。
-
人工智能
+關注
關注
1791文章
47279瀏覽量
238511
原文標題:Intel Fellow:人工智能與高性能計算將走向融合
文章出處:【微信號:AI_News,微信公眾號:人工智能快報】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論