在中國,面對美國實施的芯片限制以及相較于西方企業更為有限的預算,人工智能(AI)公司正積極尋求降低成本的方法,以開發出具有市場競爭力的模型。初創公司如01.ai(零一萬物)和DeepSeek(深度求索)等,通過聚焦小數據集進行AI模型訓練,并聘請價格適中但技術熟練的計算機工程師,成功降低了成本。
與此同時,阿里巴巴、百度和字節跳動等大型科技集團也加入了價格戰,大幅降低“推理”成本,即調用大型語言模型生成響應的價格。這些大模型的價格已經下降了90%以上,遠低于美國同行的水平。
總部位于北京的01.ai,由前谷歌中國區總裁李開復領導,通過構建以較少數據量進行訓練、需要較少計算能力的模型,并優化硬件,成功降低了推理成本。李開復表示,中國的優勢在于制造出價格實惠的推理引擎,并廣泛推廣其應用。
在加州大學伯克利分校SkyLab和LMSYS研究人員發布的排名中,01.ai的Yi-Lightning模型與馬斯克名下公司x.AI的Grok-2在大型語言模型(LLM)公司中并列第三,僅次于OpenAI和谷歌。其他中國公司如字節跳動、阿里巴巴和DeepSeek也在大模型排名榜上名列前茅。
Yi-Lightning的推理成本為每百萬token 14美分,遠低于OpenAI的GPT-4等模型。李開復表示,其目標不是擁有最佳模型,而是開發出一個具有競爭力的模型,開發人員使用它來構建應用程序的成本要低5到10倍。
為了降低成本,許多中國AI企業采用了所謂的“混合專家模型(MoE)”方法,這一策略最初由美國研究人員提出。該方法結合了多個針對行業特定數據進行訓練的神經網絡,而不是在龐大的數據庫上一次性訓練一個“密集模型”。研究人員認為,這是實現與密集模型相同智能水平但計算能力較低的關鍵方法。
然而,混合專家模型方法更容易失敗,因為工程師必須協調多個“專家”的訓練過程。因此,中國AI企業在過去一年中一直在競相開發最高質量的數據集,以訓練這些“專家”,從而在競爭中脫穎而出。
李開復強調,中國的優勢不在于進行前所未有的突破性研究,而在于建設得好、快、可靠且便宜。這一理念正引領著中國AI企業在降低成本、提高模型競爭力的道路上不斷前行。
-
AI
+關注
關注
87文章
30896瀏覽量
269087 -
人工智能
+關注
關注
1791文章
47279瀏覽量
238499 -
LLM
+關注
關注
0文章
288瀏覽量
335
發布評論請先 登錄
相關推薦
評論