趁著ChatGPT這一熱門話題還未消退,我們來聊一聊這類大規模語言模型(LLM)或通用人工智能(AGI)背后的細節。畢竟目前相關的概念股跟風大漲,但還是有不少人在持觀望態度。無論是國外還是國內,有沒有可能做出下一個ChatGPT?以及打造這樣一個模型所需的研發成本和運營成本究竟是多少。
ChatGPT背后的成本,以及GPU廠商等候多時的增長點
首先,ChatGPT是OpenAI預訓練的對話模型,除去訓練本身所需的硬件與時間成本外,運營時的推理成本也要算在其中。根據UBS分析師Timothy Arcuri的觀點,ChatGPT使用到了至少1萬塊英偉達的GPU來運營這一模型。不過這還是相對較為保守的數據,根據Semianalysis分析師Dylan Patel對模型參數、日活躍用戶數以及硬件利用率等種種因素的分析,他粗略估計OpenAI需要用到3617個HGX A100服務器來維持ChatGPT的運轉。
HGX A100 / 英偉達
需要注意的是,該分析中的HGX A100服務器是8塊A100 SXM的定制化模塊,并非DGX A100這樣集成了AMD CPU的標準服務器模塊,也就是說共需28936塊英偉達A100 GPU。且不說A100本身就高昂的售價,更何況現在還有一定的溢價。一張40GB的A100 PCIe卡,目前在亞馬遜上的單價為8000多美元,而80GB的A100 PCIe卡價格在15000美元左右浮動。
由此估算,運行ChatGPT的前期設備投入成本少說也有2.3億美元,這其中還沒算進CPU、內存、硬盤和網關等設備的硬件成本。所有GPU同時運轉時的TDP功耗達到7234kW。按照美國商用電價來計算的話,哪怕是每日運轉單由GPU帶來的電費也至少要兩萬美元以上。這樣的設備成本除非是微軟、谷歌、亞馬遜這樣本就手握大把服務器硬件資源的廠商,否則很難支撐這一模型的日常運轉。
接著我們再從每次查詢的推理成本這個角度來看,如果只負責在服務器上部署ChatGPT的OpenAI無需考慮設備購入成本,而是只考慮GPU云服務器的定價。根據Dylan Patel的估算,ChatGPT每次查詢的成本為0.36美分,約合2.4分人民幣,每天在硬件推理上的成本也高達70萬美元。由此來看,無論是OpenAI現在免費提供的ChatGPT,還是微軟在Bing上啟用的ChatGPT,其實都是在大把燒錢。
要知道,現在還只是用到了ChatGPT這一文本語言模型,根據OpenAI的CEO Sam Altman的說法,他們的AI視頻模型也在準備當中。而要想打造更復雜的視頻模型,勢必會對GPU算力提出更高的要求。
未來的硬件成本會更低嗎?
對于任何一個想要運行ChatGPT這類服務的廠商,打造這樣一款應用都要付出不小的成本,所以現階段還是微軟、谷歌之類的巨頭相互博弈。但Sam Altman也表示,隨著越來越多的競爭出現,毋庸置疑會把硬件成本壓低,也會把每個Token的定價壓低。
Jasper AI寫作工具的定價 / Jasper.ai
大家可以參照一下其他利用OpenAI的GPT-3的AI工具,比如Jasper。Jasper作為一個人工智能寫作軟件,每月需要繳納50美元,才能享受5萬字的寫作字數上限。而反觀ChatGPT,哪怕是目前的免費版也能幫你寫就長篇故事了。而這些工具鼓吹的多種模板,在ChatGPT中也只是換一種問法而已。
Sam Altman認為會有更多的玩家入局AGI,如此一來ChatGPT這種類型的服務會出現在更多的產品和應用中,而不再只是作為大廠的附庸,比如只在微軟的Bing、Office中大規模使用等,這也是OpenAI還考慮授權給其他公司的原因。
不過如果依照谷歌的訪問和搜索量來部署ChatGPT或Bard這樣類似模型的話,所需的成本必定要遠遠高于Bing,畢竟谷歌依然是目前國際領先的搜索引擎。
如果谷歌用其TPU之類的專用硬件來完成LLM的訓練與推理,其成本必然顯著低于GPU這類通用硬件的,畢竟TPU這類ASIC芯片在量產成本和運行功耗上都有著得天獨厚的優勢。
但谷歌如果使用專用硬件的話,可能會存在強制綁定的問題,哪怕谷歌選擇公開TPU商業運營,如果想用集成Bard的合作客戶也基本與谷歌云綁定了,就像現在的ChatGPT與微軟Azure強制綁定一樣。而且如果Bard出現算法路線上的大變動,TPU這種ASIC方案很難再對其進行針對性優化。
由此可以看出,雖然大小入局者眾多,但真正落地、可大規模使用且還算好用的產品還是只有ChatGPT一個,要想等到行業內卷壓低成本,可能還得等上很長一段時間。
ChatGPT如何實現盈利?
微軟高調宣布與OpenAI合作,并將ChatGPT融入Bing等一系列微軟產品中,這已經不是什么新聞了。但其實這樣的合作關系昭示了ChatGPT的一種盈利方式,那就是授權。除了微軟這種深度合作的廠商以外,其他應用開發商也可以采用授權的方式,將ChatGPT集成到自己的產品中去。
不過Sam Altman在接受外媒采訪時表示,他們目前在授權上的合作還并不多。由此猜測,要么是此類授權費用昂貴,要么就是缺少成熟的產品形態來應用這一技術,畢竟當下還算強相關的應用也只有搜索引擎、寫作工具以及AI助手等。再說,對于感興趣想嘗鮮的廠商來說,直接接入OpenAI的API或許價格反倒更低。
另一種盈利方式,也是現在最流行且已被普遍接受的收費模式,訂閱制。2月1日,OpenAI正式推出了20美元一個月的ChatGPT Plus,提供高峰時期的訪問、更快的響應速度以及新功能和改進的搶先體驗。
結語
總的來說,ChatGPT這類AGI作為元宇宙之后的又一大風口,激發了一股初創公司入局LLM的熱潮。但從客觀來看,對于這些初創公司來說,他們打從一開始根本不需要考慮市場風險,比如這會不會是個偽需求。他們更應該擔心的應該是技術風險,也就是究竟有沒有這個實力和資本去打造一個可用的LLM。
ChatGPT背后的成本,以及GPU廠商等候多時的增長點
首先,ChatGPT是OpenAI預訓練的對話模型,除去訓練本身所需的硬件與時間成本外,運營時的推理成本也要算在其中。根據UBS分析師Timothy Arcuri的觀點,ChatGPT使用到了至少1萬塊英偉達的GPU來運營這一模型。不過這還是相對較為保守的數據,根據Semianalysis分析師Dylan Patel對模型參數、日活躍用戶數以及硬件利用率等種種因素的分析,他粗略估計OpenAI需要用到3617個HGX A100服務器來維持ChatGPT的運轉。
HGX A100 / 英偉達
需要注意的是,該分析中的HGX A100服務器是8塊A100 SXM的定制化模塊,并非DGX A100這樣集成了AMD CPU的標準服務器模塊,也就是說共需28936塊英偉達A100 GPU。且不說A100本身就高昂的售價,更何況現在還有一定的溢價。一張40GB的A100 PCIe卡,目前在亞馬遜上的單價為8000多美元,而80GB的A100 PCIe卡價格在15000美元左右浮動。
由此估算,運行ChatGPT的前期設備投入成本少說也有2.3億美元,這其中還沒算進CPU、內存、硬盤和網關等設備的硬件成本。所有GPU同時運轉時的TDP功耗達到7234kW。按照美國商用電價來計算的話,哪怕是每日運轉單由GPU帶來的電費也至少要兩萬美元以上。這樣的設備成本除非是微軟、谷歌、亞馬遜這樣本就手握大把服務器硬件資源的廠商,否則很難支撐這一模型的日常運轉。
接著我們再從每次查詢的推理成本這個角度來看,如果只負責在服務器上部署ChatGPT的OpenAI無需考慮設備購入成本,而是只考慮GPU云服務器的定價。根據Dylan Patel的估算,ChatGPT每次查詢的成本為0.36美分,約合2.4分人民幣,每天在硬件推理上的成本也高達70萬美元。由此來看,無論是OpenAI現在免費提供的ChatGPT,還是微軟在Bing上啟用的ChatGPT,其實都是在大把燒錢。
要知道,現在還只是用到了ChatGPT這一文本語言模型,根據OpenAI的CEO Sam Altman的說法,他們的AI視頻模型也在準備當中。而要想打造更復雜的視頻模型,勢必會對GPU算力提出更高的要求。
未來的硬件成本會更低嗎?
對于任何一個想要運行ChatGPT這類服務的廠商,打造這樣一款應用都要付出不小的成本,所以現階段還是微軟、谷歌之類的巨頭相互博弈。但Sam Altman也表示,隨著越來越多的競爭出現,毋庸置疑會把硬件成本壓低,也會把每個Token的定價壓低。
Jasper AI寫作工具的定價 / Jasper.ai
大家可以參照一下其他利用OpenAI的GPT-3的AI工具,比如Jasper。Jasper作為一個人工智能寫作軟件,每月需要繳納50美元,才能享受5萬字的寫作字數上限。而反觀ChatGPT,哪怕是目前的免費版也能幫你寫就長篇故事了。而這些工具鼓吹的多種模板,在ChatGPT中也只是換一種問法而已。
Sam Altman認為會有更多的玩家入局AGI,如此一來ChatGPT這種類型的服務會出現在更多的產品和應用中,而不再只是作為大廠的附庸,比如只在微軟的Bing、Office中大規模使用等,這也是OpenAI還考慮授權給其他公司的原因。
不過如果依照谷歌的訪問和搜索量來部署ChatGPT或Bard這樣類似模型的話,所需的成本必定要遠遠高于Bing,畢竟谷歌依然是目前國際領先的搜索引擎。
如果谷歌用其TPU之類的專用硬件來完成LLM的訓練與推理,其成本必然顯著低于GPU這類通用硬件的,畢竟TPU這類ASIC芯片在量產成本和運行功耗上都有著得天獨厚的優勢。
但谷歌如果使用專用硬件的話,可能會存在強制綁定的問題,哪怕谷歌選擇公開TPU商業運營,如果想用集成Bard的合作客戶也基本與谷歌云綁定了,就像現在的ChatGPT與微軟Azure強制綁定一樣。而且如果Bard出現算法路線上的大變動,TPU這種ASIC方案很難再對其進行針對性優化。
由此可以看出,雖然大小入局者眾多,但真正落地、可大規模使用且還算好用的產品還是只有ChatGPT一個,要想等到行業內卷壓低成本,可能還得等上很長一段時間。
ChatGPT如何實現盈利?
微軟高調宣布與OpenAI合作,并將ChatGPT融入Bing等一系列微軟產品中,這已經不是什么新聞了。但其實這樣的合作關系昭示了ChatGPT的一種盈利方式,那就是授權。除了微軟這種深度合作的廠商以外,其他應用開發商也可以采用授權的方式,將ChatGPT集成到自己的產品中去。
不過Sam Altman在接受外媒采訪時表示,他們目前在授權上的合作還并不多。由此猜測,要么是此類授權費用昂貴,要么就是缺少成熟的產品形態來應用這一技術,畢竟當下還算強相關的應用也只有搜索引擎、寫作工具以及AI助手等。再說,對于感興趣想嘗鮮的廠商來說,直接接入OpenAI的API或許價格反倒更低。
另一種盈利方式,也是現在最流行且已被普遍接受的收費模式,訂閱制。2月1日,OpenAI正式推出了20美元一個月的ChatGPT Plus,提供高峰時期的訪問、更快的響應速度以及新功能和改進的搶先體驗。
結語
總的來說,ChatGPT這類AGI作為元宇宙之后的又一大風口,激發了一股初創公司入局LLM的熱潮。但從客觀來看,對于這些初創公司來說,他們打從一開始根本不需要考慮市場風險,比如這會不會是個偽需求。他們更應該擔心的應該是技術風險,也就是究竟有沒有這個實力和資本去打造一個可用的LLM。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
ChatGPT
+關注
關注
29文章
1560瀏覽量
7666 -
LLM
+關注
關注
0文章
288瀏覽量
334
發布評論請先 登錄
相關推薦
什么是LLM?LLM在自然語言處理中的應用
隨著人工智能技術的飛速發展,自然語言處理(NLP)領域迎來了革命性的進步。其中,大型語言模型(LLM)的出現,標志著我們對語言理解能力的一次飛躍。LLM通過深度學習和海量數據訓練,使得機器能夠以前
LLM技術對人工智能發展的影響
隨著人工智能技術的飛速發展,大型語言模型(LLM)技術已經成為推動AI領域進步的關鍵力量。LLM技術通過深度學習和自然語言處理技術,使得機器能夠理解和生成自然語言,極大地擴展了人工智能的應用范圍
LLM和傳統機器學習的區別
在人工智能領域,LLM(Large Language Models,大型語言模型)和傳統機器學習是兩種不同的技術路徑,它們在處理數據、模型結構、應用場景等方面有著顯著的差異。 1. 模型結構
端到端InfiniBand網絡解決LLM訓練瓶頸
ChatGPT對技術的影響引發了對人工智能未來的預測,尤其是多模態技術的關注。OpenAI推出了具有突破性的多模態模型GPT-4,使各個領域取得了顯著的發展。 這些AI進步是通過大規模模型訓練實現
ChatGPT背后的AI背景、技術門道和商業應用
作者:京東科技 李俊兵 各位看官好,我是球神(江湖代號)。 自去年11月30日ChatGPT問世以來,迅速爆火出圈。 起初我依然以為這是和當年Transformer, Bert一樣的“熱點”模型
大模型LLM與ChatGPT的技術原理
在人工智能領域,大模型(Large Language Model, LLM)和ChatGPT等自然語言處理技術(Natural Language Processing, NLP)正逐步改變著人類
llm模型有哪些格式
LLM(Large Language Model,大型語言模型)是一種深度學習模型,主要用于處理自然語言處理(NLP)任務。LLM模型的格式多種多樣,以下是一些常見的LLM模型格式
llm模型和chatGPT的區別
,有許多不同的LLM模型,如BERT、GPT、T5等。 ChatGPT是一種基于GPT(Generative Pre-trained Transformer)模型的聊天機器人。GPT模型是一種
LLM模型的應用領域
在本文中,我們將深入探討LLM(Large Language Model,大型語言模型)的應用領域。LLM是一種基于深度學習的人工智能技術,它能夠理解和生成自然語言文本。近年來,隨著計算能力的提高
什么是LLM?LLM的工作原理和結構
隨著人工智能技術的飛速發展,大型語言模型(Large Language Model,簡稱LLM)逐漸成為自然語言處理(NLP)領域的研究熱點。LLM以其強大的文本生成、理解和推理能力,在文本
大語言模型(LLM)快速理解
自2022年,ChatGPT發布之后,大語言模型(LargeLanguageModel),簡稱LLM掀起了一波狂潮。作為學習理解LLM的開始,先來整體理解一下大語言模型。一、發展歷史大語言模型的發展
OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來了
當地時間5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前邁出的一大步。在GPT-4turbo的強大基礎上,這種迭代擁有顯著的改進。在發布會的演示中,OpenAI展示該模型的高級
發表于 05-27 15:43
在FPGA設計中是否可以應用ChatGPT生成想要的程序呢
當下AI人工智能崛起,很多開發領域都可看到ChatGPT的身影,FPGA設計中,是否也可以用ChatGPT輔助設計呢?
發表于 03-28 23:41
【國產FPGA+OMAPL138開發板體驗】(原創)6.FPGA連接ChatGPT 4
: ChatGPT 4說:\'優化硬件設計需要考慮很多因素,如功耗、性能、成本等。你可以從改進算法、優化數據路徑、減少冗余操作等方面入手。\'\");
// 7. 關閉與ChatGPT 4服務器的連接
發表于 02-14 21:58
評論