在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

AI大模型不再依賴英偉達GPU?蘋果揭秘自研大模型

Hobby觀察 ? 來源:電子發燒友網 ? 作者:梁浩斌 ? 2024-08-05 06:07 ? 次閱讀

電子發燒友網報道(文/梁浩斌)過去幾年中爆發的AI算力需求,英偉達GPU成為了最大的贏家,無論是自動駕駛還是AI大模型,比如特斯拉、小鵬、OpenAI、字節跳動等廠商都在爭相搶購英偉達GPU產品,獲得足夠的算力構建自己的計算中心,用于訓練不同應用的AI模型。

AI領域眾星捧月也造就了英偉達市值曾突破三萬億美元,并短暫登頂全球第一的位置。不過蘋果卻反其道而行之,在7月底蘋果公司揭露的官方論文顯示,蘋果自研大模型AFM背后,完全沒有英偉達GPU的影子。

蘋果大模型訓練,選擇了谷歌芯片

在蘋果近期揭露的一篇技術論文中,詳細介紹了蘋果在端側和服務器側的大模型。在大模型預訓練的階段,蘋果基礎模型是在AXLearn框架上進行訓練的,據蘋果介紹,AXLearn框架是蘋果公司在2023年發布的開源項目,這個框架建立在JAX和XLA的基礎上,允許模型在各種硬件和云平臺上進行高效和可擴展性訓練,包括TPU以及云端和本地的GPU。

蘋果采用了數據并行、張量并行、序列并行和完全分片數據并行(FSDP)的組合來沿多個維度擴展訓練,如數據規模、模型規模和序列長度。

其中,蘋果的AFM服務器端大模型是蘋果規模最大的語言模型,該模型在8192個TPUv4芯片上進行了預訓練,這些芯片被配置成8*1024個芯片集群,通過數據中心網絡DCN)連接。預訓練有三個階段,首先使用 6.3 萬億個Tokens開始,接著使用 1 萬億個Tokens繼續訓練,最后使用 1000 億個Tokens進行上下文長度的擴展。

而在AFM的端側模型上,蘋果對其進行了大幅修剪,論文披露AFM端側模型是一個擁有30億參數的模型,該模型是從64億參數的服務器模型中蒸餾而來,而這個服務器模型則是在完整的6.3萬億參數量上進行訓練。

與服務器端模型不同的是,AFM端側模型采用的芯片是谷歌的TPUv5,論文中的信息顯示,AFM端側模型是在一個由2048個TPUv5p芯片組成的集群上進行訓練的。

谷歌在去年12月發布了TPUv5p,面向云端AI加速,谷歌稱之為“迄今為止最強大、可擴展性最強和最靈活的人工智能加速器”。

TPUv5p在bfloat16精度下可以提供459 teraFLOPS(每秒可執行459萬億次浮點運算)算力;在Int8精度下,TPU v5p可以提供918 teraOPS(每秒可執行918萬億次整數運算);支持95GB的HBM內存,帶寬高達2.76 TB/s。

相比上一代的TPU v4,TPUv5p實現了每秒浮點運算次數提高一倍,內存帶寬是前代的三倍,訓練大模型速度提升2.8倍,并且性價比是前代的2.1倍。

除了蘋果之外,目前采用谷歌TPU系列芯片進行大模型訓練的還有谷歌自家的Gemini、PaLM,以及OpenAI前副總裁創立的Anthropic所推出的Claude大模型,上個月Anthropic發布的Llama 3.1 405B還被認為是最強開源大模型。

蘋果、谷歌、Anthropic的實例,證明了TPU在大模型訓練上的能力。但相比于英偉達,TPU目前在大模型領域的應用依舊只是冰山一角,背后更多的大模型公司,包括OpenAI、特斯拉、字節跳動等巨頭,主力AI數據中心依然是普遍采用英偉達GPU。

英偉達的挑戰者們

一直以來,圍繞CUDA打造的軟件生態,是英偉達在GPU領域最大的護城河,尤其是隨著目前AI領域的發展加速,市場火爆,英偉達GPU+CUDA的開發生態則更加穩固,AMD英特爾等廠商雖然在努力追趕,但目前還未能看到有威脅英偉達地位的可能。

但市場的火爆難免吸引更多的玩家入局,對英偉達發起挑戰,或者說是在AI廣闊的市場空間中,希望分得一杯羹。

首先是英偉達在GPU領域的最大對手AMD ,今年一月有研究人員在Frontier超算集群上,利用其中8%左右的GPU,訓練出一個GPT 3.5級別規模的大模型。而Frontier超算集群是完全基于AMD硬件的,由37888個MI250X GPU和9472個Epyc 7A53 CPU組成,這次研究也突破了在AMD硬件上突破了先進分布式訓練模型的難點,為AMD平臺訓練大模型驗證了可行性。

同時,CUDA生態也在逐步擊破,今年7月英國公司Spectral Compute推出了可以為AMD GPU原生編譯CUDA源代碼的方案,大幅提高了AMD GPU對CUDA的兼容效率。

英特爾的Gaudi 3 也在發布時直接對標英偉達H100,并宣稱在模型訓練速度和推理速度上分別比英偉達H100提高了40%和50%。

除了芯片巨頭外,也不乏來自初創公司的沖擊。比如Groq推出的LPU、Cerebras推出的Wafer Scale Engine 3、Etched推出的Sohu等等。國內方面,有走多卡集群訓練路線的初創公司,比如摩爾線程在今年6月宣布與羽人科技合作成功實現了摩爾線程夸娥(KUAE)千卡智算集群與羽人系列模型解決方案的訓練兼容適配,高效完成了70億參數羽人大語言模型YuRen-7b的訓練測試。

摩爾線程夸娥方案基于全功能MTT S4000 GPU,該GPU采用了第三代MUSA內核,單卡支持48GB顯存容量和768GB/s的顯存帶寬,FP16算力為100TFLOPS。值得一提的是,MTT S4000計算卡借助摩爾線程自研開發工具,可以充分兼容現有CUDA軟件生態,實現CUDA代碼零成本遷移到MUSA平臺。

天數智芯也與智源研究院、愛特云翔合作,提供天垓100加速卡、構建算力集群及全程技術支持,實現基于自主通用GPU的大模型CodeGen(高效編碼)項目,通過中文描述來生成可用的C、JavaPython代碼以實現高效編碼。

另外值得一提的是,國內還有一家走TPU路線的AI芯片公司——中昊芯英。該公司在2023年底推出了國內首款量產TPU AI訓練芯片“剎那”,據稱在處理大模型訓練和推理任務時相比英偉達A100,性能提高近150%,能耗下降30%,單位算力成本僅為A100的42%。

當然,除了芯片公司,據現有的信息,目前主流的云服務供應商,比如前面提到的谷歌,還有亞馬遜、微軟、Meta、阿里巴巴、字節跳動、百度、華為等都有自研芯片的布局,其中還包括用于AI大模型訓練的芯片。

寫在最后

從長遠來看,自研芯片是云服務供應商有效降低算力成本的方式之一,當AI大模型訓練成為了云計算的重要用途時,自研AI訓練芯片自然也是云服務廠商的長遠之計。蘋果作為消費電子巨頭已經邁出了重要的一步,即擺脫對英偉達的算力依賴,并且還有大量的挑戰者正在蠢蠢欲動。星星之火,可以燎原,英偉達在AI訓練領域的地位,可能沒有表面看起來那么穩固。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4736

    瀏覽量

    128935
  • 蘋果
    +關注

    關注

    61

    文章

    24408

    瀏覽量

    198714
  • AI
    AI
    +關注

    關注

    87

    文章

    30865

    瀏覽量

    269030
  • 英偉達
    +關注

    關注

    22

    文章

    3776

    瀏覽量

    91044
  • 大模型
    +關注

    關注

    2

    文章

    2446

    瀏覽量

    2692
收藏 人收藏

    評論

    相關推薦

    蘋果AI芯片,或終結與英偉多年合作

    蘋果公司正加速推進AI芯片的步伐,旨在減少對外部供應商的依賴,這一戰略調整或將徹底改變其與英偉
    的頭像 發表于 12-27 10:18 ?24次閱讀

    GPU是如何訓練AI模型

    AI模型的訓練過程中,大量的計算工作集中在矩陣乘法、向量加法和激活函數等運算上。這些運算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU
    的頭像 發表于 12-19 17:54 ?118次閱讀

    英偉發布AI模型 Llama-3.1-Nemotron-51B AI模型

    英偉公司宣布推出 Llama-3.1-Nemotron-51B AI 模型,這個AI模型是源
    的頭像 發表于 09-26 17:30 ?607次閱讀

    英偉與阿聯酋G42合作開發天氣預測AI模型

    英偉近期宣布與阿聯酋的領先AI應用開發企業G42達成戰略合作,共同探索天氣預測技術的新前沿。雙方將整合各自的技術優勢,依托英偉的Eart
    的頭像 發表于 09-24 15:41 ?276次閱讀

    英偉Blackwell可支持10萬億參數模型AI訓練,實時大語言模型推理

    、NVLink交換機、Spectrum以太網交換機和Quantum InfiniBand交換機。 ? 英偉稱,Blackwell擁有6項革命性技術,可支持多達10萬億參數的模型進行AI
    的頭像 發表于 09-04 09:10 ?2903次閱讀

    英偉震撼發布:全新AI模型參數規模躍升至80億量級

    8月23日,英偉宣布,其全新AI模型面世,該模型參數規模高達80億,具有精度高、計算效益大等優勢,適用于
    的頭像 發表于 08-23 16:08 ?738次閱讀

    蘋果AI模型訓練新動向:攜手谷歌,未選英偉

    近日,蘋果公司發布的最新研究報告揭示了其在人工智能領域的又一重要戰略選擇——采用谷歌設計的芯片來訓練其AI模型,而非行業巨頭英偉的產品。這
    的頭像 發表于 08-01 18:11 ?921次閱讀

    英偉推出AI模型推理服務NVIDIA NIM

    英偉近日宣布推出一項革命性的AI模型推理服務——NVIDIA NIM。這項服務將極大地簡化AI模型
    的頭像 發表于 06-04 09:15 ?679次閱讀

    英偉首席執行官黃仁勛:AI模型推動英偉AI芯片需求

    近來,以ChatGPT為代表的AI聊天機器人已經導致英偉AI芯片供應緊張。然而,隨著能夠創造視頻并進行近似人類交流的新型AI
    的頭像 發表于 05-24 10:04 ?502次閱讀

    進一步解讀英偉 Blackwell 架構、NVlink及GB200 超級芯片

    計算工作負載、釋放百億億次計算能力和萬億參數人工智能模型的全部潛力提供關鍵基礎。 NVLink釋放數萬億參數AI模型的加速性能,顯著提升大型多GPU系統的可擴展性。每個
    發表于 05-13 17:16

    華與英偉深化合作,成為NVIDIA AI Enterprise軟件全球分銷商

    近日,華宣布擴大與英偉的合作,未來將通過工業級邊緣計算和英偉 AI Enterprise
    的頭像 發表于 05-10 10:25 ?446次閱讀

    微軟AI模型即將問世

    微軟正悄然醞釀一項重大技術突破,據內部消息人士透露,公司正全力訓練一款名為“MAI-1”的人工智能大模型。這款模型備受期待,其規模龐大,足以與谷歌的Gemini和OpenAI的Ch
    的頭像 發表于 05-07 14:46 ?479次閱讀

    國產GPUAI模型領域的應用案例一覽

    電子發燒友網報道(文/李彎彎)近一年多時間,隨著大模型的發展,GPUAI領域的重要性再次凸顯。雖然相比英偉等國際大廠,國產
    的頭像 發表于 04-01 09:28 ?3803次閱讀
    國產<b class='flag-5'>GPU</b>在<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>領域的應用案例一覽

    英偉市值躍居全球第四 文生視頻大模型Sora帶動

    英偉市值躍居全球第四 文生視頻大模型Sora帶動 文生視頻大模型Sora引發市場關注;OpenAI的首款文生視頻大模型Sora橫空出世帶動
    的頭像 發表于 02-19 16:48 ?999次閱讀

    英偉缺貨?OpenAI選擇芯片

    勢在必行。然而掀起這股AI洪流,或者說將其推向浪尖的“始作俑者”,OpenAI,卻也已經在計劃著芯片。 ? 有了英偉供應的前提下為何要
    的頭像 發表于 01-30 00:51 ?3726次閱讀
    主站蜘蛛池模板: 成人在线a| 四虎永久在线精品2022| 四虎黄色网址| 日韩美女奶水喂男人在线观看| 欧美一区二区视频| 久久99精品久久久久久臀蜜桃| www.毛片.com| 中国性猛交xxxx乱大交| 色偷偷亚洲天堂| 日本黄色一区| 成年看片免费高清观看| 人人干人人做| sesese在线播放| 亚洲高清免费| 毛片毛片免费看| 夜色剧场| 2022天天干| 天堂bt种子资源地址在线| 久久久久久久久综合影视网| jiuse在线| 国产黄视频在线观看| 亚洲精品在线不卡| 国产精品伦子一区二区三区| 91天天干| 月夜免费观看高清在线完整| 欧美三级在线免费观看| 亚洲午夜久久久久久91| 亚洲偷偷| 九色综合久久综合欧美97| 精品乱码一区二区三区四区| 亚洲成人在线播放| 97在线人人| 日本欧洲亚洲一区在线观看| 久久这里精品青草免费| 天天操综| 男男宿舍高h炒肉bl| 日本免费人成在线网站| 人人人草| 亭亭色| 午夜精品久久久久久毛片| 91华人在线视频|