導語:可以確定的是,隨著科技的進步,中國GPU算力行業一定要、也一定會擺脫被“卡脖子”的問題,讓中國的AI企業用上中國的GPU,打贏這場算力之戰。
近日,英偉達(NASDAQ:NVDA)在美國加州總部舉辦了面向軟件開發者的年度技術峰會GTC。在會上,英偉達創始人黃仁勛披露了最新人工智能相關的軟硬件技術,并在演說中將“AI的iPhone時刻”這句話重復強調了三遍。
事實上,英偉達與AI可謂是緣分不淺,截至目前,英偉達的GPU芯片正在為全球絕大多數的人工智能系統提供最基礎的算力支持,而ChatGPT母公司OpenAI,便是憑借著10000片英偉達的GPU芯片,成功訓練出了GPT-3大語言模型,震驚了全世界。
那么,提供了全球高端人工智能大半算力的英偉達CEO黃仁勛,為何在此次大會中將ChatGPT帶來的變化稱為“人工智能的iPhone時刻”?在“人工智能的iPhone時刻”背后,又是哪些基礎硬件設施與相關的企業支撐著AI行業不斷前行呢?
本文將以英偉達發布會為切入點,介紹國內GPU行業相關企業的發展現狀,進而講述為何算力缺乏的原因,以期為讀者展現GPU行業的現狀與未來發展。
火種初現的中國廠商
作為全球算力硬件當之無愧的龍頭公司,英偉達每年的GTC大會都吸引著眾多尖端科技工作者的目光,尤其是在2023這個ChatGPT的出圈元年,作為人工智能硬件的主要提供商,英偉達GTC的曝光量更是得到了顯著的增加。
而在此次大會中,英偉達展示了其針對訓練、推理、云服務等多維度的ChatGPT領域布局。
在AI訓練領域,英偉達助力算力持續提升,賦能大模型突破。
基于GPU并行計算的特性以及英偉達在AI領域的前瞻布局,英偉達在AI訓練領域擁有絕對優勢,同時十分重視人工智能賽道,不斷提升其人工智能硬件的計算能力。
并且,隨著GPT大模型對于算力需求的提升,全球科技巨頭均已開始或即將搭載英偉達的H100產品:Meta已在內部為團隊部署了基于H100的Grand Teton AI超級計算機;OpenAI將在其Azure超級計算機上使用H100來為其持續的AI研究提供動力。
而在此次GTC 2023上,基于Hopper架構及其內置Transformer Engine,英偉達H100針對生成式AI、大型語言模型(LLM)和推薦系統的開發、訓練和部署都進行了優化,利用FP8精度在LLM上提供較上一代A100更快的訓練及推理速度,助力簡化AI開發。
圖源:英偉達公司官網,中金公司研究部
而在AI推理領域,AI視頻、圖像生成、大型語言模型部署及推薦系統也在加速部署。
在今年的GTC 2023中,英偉達推出了全新的GPU推理平臺:基于加速AI視頻、圖像生成、大型語言模型部署和推薦系統,形成了4種配置、1個體系架構和1個軟件棧的產品體系。
其中H100 NVL GPU受到了市場較為廣泛的關注:英偉達在GTC 2023公開表示,該產品將配備雙GPU NVLink,或將實現比現用A100快10倍的速度,可處理擁有1750億參數的GPT-3大模型,并支持商用PCIe服務器擴展,適用于訓練大型語言模型。
黃仁勛稱,相較于目前唯一可以實時處理ChatGPT的HGX A100,一臺搭載四對H100和雙NVLink的標準服務器能將速度提升10倍,并且還可以將大語言模型的處理成本降低一個數量級。黃仁勛也將NVIDIA DGX H100稱作全球客戶構建AI基礎設施的藍圖。
黃仁勛也表示,ChatGPT僅僅是人工智能第一個出圈的應用,也只是一個起點。在人工智能浪潮來臨之時,全球范圍內必將出現一批進軍人工智能大模型硬件的企業。但英偉達在短期內擁有絕對的技術優勢,未來也將持續發力。
毫無疑問,英偉達發布的最新硬件對于人工智能企業來說,是解決算力問題的最大福音,但對于中國企業來說,這卻并非是一則喜訊。
2022年8月,美國監管機構以國家安全為由,對NVIDIA A100、H100兩款GPU實施禁令,不得銷售給中國企業,意在通過“卡脖子”的方法來降低國內AI模型的傳輸速度,拖延中國人工智能發展。
從長遠來看,未來大模型的研發和部署是必然趨勢,而每個大模型訓練和部署的背后,都有幾萬個 GPU 芯片在支持。因此,未來隨著這方面的研發和應用的普及,通用 GPU 市場需求將會迎來爆發式增長。
而中國能獲得的最佳替代品,則是英偉達專供中國的A800芯片,也是A100的“閹割版”,其傳輸速度只有A100的70%,而在H100大規模供貨后,中美AI公司的差距則將進一步拉大。
高性能的GPU,已經成為了限制中國AI行業發展的最直接因素之一。
但也正是在算力需求激增、硬件供給被切斷、難以真正“市場化”的背景下,國內才涌現了一批GPU的“火種”企業。
這些新興的企業中,核心團隊基本都是業內頂尖專家,許多技術專家來自英偉達、AMD 等國際龍頭企業。初創企業們接連完成新融資,并陸續推出新品加速商業化。
首先,是借軍工信息化之風邁向全面國產替代的GPU企業——景嘉微(SZ:300474)。
景嘉微的技術核心團隊來自于國防科技大學,公司業務也是依靠軍工業務圖形顯控模塊芯片起家,持續投入研發布局全自主研發GPU芯片的圖形顯控傳統業務。
在后續的發展中,伴隨著國家專項基金的支持與企業芯片研發的推進,公司的GPU芯片業務逐漸“開枝散葉”,滲透入了民用市場,在“8+N”個行業中進行著快速的發展。
截止目前,公司是國內首家成功研制國產GPU芯片并實現大規模工程應用的企業,也是國內唯一具備完全自主研發GPU能力并產業化的上市公司,目前已擁有267項專利,在圖形顯控領域走在行業前列。
而公司的產品,也正在從“能用”邁向“好用”的階段。
根據景嘉微2021年公告,公司研發的JM9系列圖形處理芯片將支持OpenGL 4.0、HDMI 2.0等接口,以及H.265/4K 60-fps 視頻解碼。
其核心頻率至少為1.5GHz,配備8GB顯存,浮點性能約 1.5 TFlops,與英偉達GeForce GTX 1050 相近。
資料來源:中關村在線,芯參數,Nvidia 官網,公司公告,太平洋證券研究院
而在與公司的交流中,相關人員表示,之前的7系列分為多個版本,根據客戶的需求、價格和價位承受能力來配合出貨,所以取得了較大的成功。而9系目前還在談價的過程中,也相信9系列會促使全球顯卡價格的下行。
并且對方還表示,公司對標的是海外競爭對手幾年前的產品,而當利潤低于一定程度后,海外的公司會主動放棄市場。公司也會從相對的低端做起,隨著技術的進步,逐漸追趕英特爾、AMD的步伐。
盡管目前景嘉微的產品與國際尖端GPU存在著極大的差距,但作為一顆由中國企業完全獨立研發、采用正向設計、具有自主知識產權的GPU,已經邁出了國產自主道路上的一大步,成為中國算力的“希望之火”。
接著,是依靠CPU、DCU雙輪驅動,深度受益國產化替代的企業——海光信息(SH:688041)。
海光信息成立于2014年,主營業務為研發、設計和銷售應用于服務器、工作站等計算、存儲設備中的高端處理器,目前擁有海光通用處理器(CPU)和海光協處理器(DCU)兩條產品線。
而其中,DCU作為專注通用計算、單純提供人工智能算力的產品,成為了企業新的業績增長極。
海光信息于2018年切入DCU領域,堅持自主研發,目前已經成功掌握高端協處理器微結構設計等核心技術,并以此為基礎推出了性能優異的DCU產品,具備強大的計算能力和高速并行數據處理能力,性能基本能與國際同類型主流產品同臺競技。
選取公司深算一號產品和國際領先的GPU廠商英偉達的高端GPU產品(A100)及AMD高端GPU產品(MI100)進行對比,在典型應用場景下,海光信息深算一號單顆芯片的指標基本達到國際上同類型高端產品的水平。
對標目前國際主流人工智能企業都在使用的NVIDIA A100產品,海光DCU單芯片產品基本能達到其70%的性能水平,同時,公司DCU產品的片間互聯性能還有較大的提升空間。
資料來源:公司招股說明書、平安證券研究所
而在硬件之外,海光信息也為打破CUDA生態專門制作了軟件配置:海光 DCU 協處理器全面兼容 ROCm GPU計算生態,由于ROCm與CUDA的高度相似性,CUDA用戶可以以較低代價快速遷移至 ROCm平臺。
因此,海光DCU協處理器能夠較好地適配、適應國際主流商業計算軟件和人工智能軟件,軟硬件生態豐富。
此外,海光還積極參與開源軟件項目,加快了DCU產品的推廣速度,并成功實現了與GPGPU主流開發平臺的兼容。
近些年來,在國內諸多創企的努力下,GPU硬件的突破捷報頻傳,但目前我國CPU廠商距離英偉達等國際頭部廠商的距離仍然還有很遠。
所以對于中國GPU企業來說,做好國產的Plan B,再謀求發展,或許才是正確的方向。
但可以確定的是,隨著科技的進步,中國GPU算力行業一定要、也一定會擺脫被“卡脖子”的問題,讓中國的AI企業用上中國的GPU,打贏這場算力之戰。
算力,為何如此緊缺?
上文談到了英偉達的算力“肌肉”展示與國產CPU的奮起直追,那么,當前人工智能企業的算力需求究竟幾何?為何“AI芯片”第一股英偉達,能在短短不到四個月的時間內,股價暴漲83%?
從算力需求端來看,人工智能模型的參數量隨換代呈現著指數型增長的態勢。
以GPT-3.5為例,作為一種大型語言模型,有著海量的參數。即使OpenAI目前沒有公布ChatGPT所使用的 GPT-3.5 的相關數據,但由圖可得,隨著新模型的推出,參數量需求呈現翻倍式增長。
資料來源:OpenAI 官網,安信證券研究中心
而在參數量的增加之外,ChatGPT的下一代GPT-4還可以通過多模態來拓展應用場景。
GPT-4作為一個多模態大模型(接受圖像和文本輸入,生成文本),相比GPT-3.5可以更準確地解決難題,具有更廣泛的常識和解決問題的能力,文本處理能力更是達到了ChatGPT上限的8倍。
數據來源:OpenAI《GPT-4 Technical Report》,廣發證券發展研究中心
不過,伴隨著人工智能的成熟而增長的,自然是其背后的算力需求:OpenAI預計,人工智能科學研究要想取得突破,所需要消耗的計算資源每3~4個月就要翻一倍,所以出現了算力需求爆炸式增加的情況。
而在人工智能企業需求大幅增長的情況下,算力的供給卻逐步放慢了腳步。
在半導體行業中,一直有著這樣一種說法:“當價格不變時,集成電路上可容納的元器件的數目,約每隔18-24個月便會增加一倍,性能也將提升一倍。換言之,每一美元所能買到的電腦性能,將每隔18-24個月翻一倍以上。這一定律揭示了信息技術進步的速度?!?/p>
這就是我們所熟知的摩爾定律,實際上,大家身邊最直觀的感受便是每大概兩年左右,你的電腦或手機就要面臨淘汰的境地了,尤其是當今的智能手機,基本主流配置的手機,2年就得準備換新了。
但是,伴隨著半導體制程的持續演進,短溝道效應以及量子隧穿效應帶來的漏電、發熱等問題愈發嚴重,追求經濟效能的摩爾定律已經日趨放緩,甚至接近失效。
也就是說,哪怕在需求不變的情況下,算力基礎設施就已經該走上增加數量的賽道了,更何況算力需求正在以指數爆炸的速度增長。
因此, AI 模型訓練算力需求增長與摩爾定律出現了極不匹配的現象,這勢必推動對算力基礎設施需求的快速增長,而這,也是英偉達等眾多GPU硬件企業被資金追捧的根本原因——他們手中握著開啟AI時代的金鑰匙。
小結
或許正如黃仁勛所說,“人工智能的iPhone時刻”已經來臨,走向下一個時代的路,早就擺在了世人面前。
但是眾多最尖端的人工智能企業,還在為AI時代的“入場券”而發愁犯難,高昂的算力價格、永遠缺貨的高端GPU,成為了企業最大的軟肋。
由此可見,對于未來的數字經濟而言,算力等基礎設施的舞臺將會成為AI企業們甚至國家之間的第一個角力場。正如全球著名投資機構a16z評價ChatGPT時所說,“基礎設施服務商可能才是最大贏家,獲得最多的財富?!?/p>
包括AI在內的新技術在取得突破后,要想走入“尋常百姓家”,實現大規模的部署和應用,算力的安全、高速、高可靠、高性能等能力缺一不可。甚至可以說,算力的增強真正驅動了數字經濟的增長。
而對于中國企業來說,短期的封鎖或許是困境,但從另外一個角度來想也未必不是機遇,以景嘉微、海光信息為代表的的中國高算企業,也必將在層層封鎖中殺出,以卓越的產品,推動中國滾滾的數字化大潮!
審核編輯 :李倩
-
gpu
+關注
關注
28文章
4742瀏覽量
128976 -
人工智能
+關注
關注
1791文章
47336瀏覽量
238696 -
算力
+關注
關注
1文章
985瀏覽量
14836 -
ChatGPT
+關注
關注
29文章
1563瀏覽量
7743
原文標題:火種初現的國產GPU,誰能突破算力封鎖?
文章出處:【微信號:alpworks,微信公眾號:阿爾法工場研究院】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論