本文來自“GPT-4精華專題:多模態能力提升,應用生態加速(2023)”,2023年11月7日,OpenAI通過開發者大會推出新產品:
1)GPT4-Turbo:該模型通過增加上下文窗口以支持更長的工作流,同時具備視覺和語音等多模態能力,輸入和輸出的tokens價格大幅下降,從而幫助開發者以更低的價格獲取更高的模型性能。
2)GPTs:用戶只需輸入指令并提供外設的知識庫即可創建專屬GPT,應用開發門檻大幅降低,未來在收益計劃的助力下,AI應用有望迎來大爆發,形成全新的AI Agent生態。
3)Assistant API:開發者可以通過函數調用、知識檢索、代碼解釋器簡化應用開發流程、實現效率提升。
《400+份重磅ChatGPT專業報告》
1)算力端:OpenAI一系列新產品的推出成功打開新流量入口,更多的用戶和開發者希望參與其中,巨大的流量對算力底座提出更高的要求;疊加圖片等多模態生成所要求的tokens計算量遠高于文本模態(根據OpenAI官網信息推算,在GPT-4-Turbo的Vision pricing calculator高保真度模式下,1張圖片所產生的tokens數大約是1個單詞的570或830倍),算力供給亟需擴容。
2)存力端:在算力提效到達一定瓶頸的情況下,AI芯片未來將逐步通過堆疊HBM的方式來提升性能,擴大單位算力的存儲能力,HBM等存力需求將迎來暴增。
3)應用端:類比移動互聯網時代,AI時代的應用市場有望如同移動互聯網時代具備無限潛力,GPTs數量將呈現非線性高速增長;此外,OpenAI的GPTs通過提供API,使得開發者只需喂給大模型更多的垂類數據即可打造垂類AI應用,同時使滿足更多長尾需求成為可能。
4)數據端:從OpenAI GPTs的Knowledge功能來看,專業知識與大模型通用能力的結合將成為未來的重中之重,私域數據庫和專業數據庫方向將會不斷產生新熱點、新需求,因此,如何在合規前提下留存垂類數據并構建體系化數據庫、以及保證知識產權的確權或成為未來的重要議題。
為打造視覺大模型,建立高效視覺預訓練體系以提升圖像理解能力至關重要,這影響到從圖像整體(如分類、圖文檢索、標注)到部分區域(如物體識別、短語定位)及到像素細節(如語義、實例、全景分割)的各項任務。
通用視覺預訓練方法主要可歸納為三大類。1)標簽監督:此方法在每張圖片都配有對應標簽的數據集上進行訓練,如圖像分類中,一張狗的照片會對應“狗”的標簽,模型的核心任務是準確預測此標簽。2)語言-圖像監督:利用完整的文本描述來引導模型學習,使模型能夠深入挖掘圖像內容與文本語義間的關聯。3)僅圖像自監督:利用圖像本身固有的結構和信息來學習有意義的表示,而不依賴于顯式的人工注釋標簽。
1)更長的上下文(Context Length):GPT-4-turbo支持的上下文窗口(128k)相較于GPT-4-8k提升16倍,相較于GPT-4-32k提升4倍,即GPT-4-turbo可在單個prompt中處理超過300頁的文本,且GPT-4-turbo模型在較長的上下文中更加準確。我們認為GPT-4-turbo更長且更準確的上下文處理能力將支持更長的工作流,在B端有能力承擔更多的工作負載,提升用戶體驗。
2)更豐富的世界知識(Better Knowledge):外部文檔和數據庫的截止更新日期從21年9月更新至23年4月,意味著OpenAI的大模型在半年內已學習互聯網一年半的知識,學習速度極快。
什么是GPTs:GPTs是指“針對特定目的定制的ChatGPT”,用戶可以通過自定義行為創建一個定制版的ChatGPT,定制版的ChatGPT具備帶有任何功能的可能性(在保證隱私和安全的情況下)。
不論是開發者還是不會寫代碼的普通人,都可以擁有自定義版本的GPT。
更加個性化、私人化、場景化,每個人都可以擁有自己的AI Agent。GPTs通過結合①說明/Instruction+②擴展的知識/Expand knowledge+③操作/Actions,能夠在很多情況下更好地工作,并且為用戶提供更好地控制,用以幫助用戶輕松完成各種任務、或者獲得更多樂趣。
針對開發者在開發API中的痛點,OpenAI推出Assistant API,致力于為開發者賦能。根據此前市場上推出的各種API,我們可以發現API通過接入各種程序和應用,有助于幫助應用實現特定功能。
例如,Shopify的Sidekick允許用戶在平臺上進行操作;Discord的Clyde允許discord版主設置自定義人格;Snap my AI作為定制聊天機器人工具,可以添加至群聊中并提出建議。但以上API的構建可能需要開發者耗費幾個月的時間、并由數十名工程師搭建,而目前Assistant API的推出將使其變得容易實現。
① 英偉達:2023年11月13日,英偉達推出H200,內存方面首次采用HBM3e,容量高達141GB,帶寬實現大幅提升;性能方面著重強化推理能力和HPC性能,可將Llama2模型的推理速度提高近一倍,相較于H100可降低50%的TCO和能耗成本。2023年以來,英偉達AI芯片已發布多個產品,在云側算力芯片領域龍頭優勢明顯。
② AMD:2023年6月,AMD正式發布MI300系列,MI300將CPU、GPU和內存封裝為一體,大幅縮短DDR內存行程和CPU-GPU PCIe行程,提高性能和效率;MI300采用Chiplet設計,擁有13個基于3D堆疊的小芯片(5nm: 3個CPU,6個GPU;4個6nm芯片),包括24個Zen4 CPU內核,同時融合CDNA 3和8個HBM3顯存堆棧,集成5nm和6nm IP,總共包含128GB HBM3顯存和1460億個晶體管。對比MI250加速卡,MI300可帶來8倍AI性能和5倍每瓦性能的提升(FP8),使ChatGPT和DALL-E等超大AI模型的訓練時間可以從幾個月縮短到幾周。
2)端側芯片格局:對于AI PC端側適用芯片,英特爾進展保持領先,高通有望實現從0到1。
① 英特爾:PC主芯片包括CPU和GPU。GPU方面,根據Statista數據,英特爾在22Q4全球PC GPU市場中占據71%的市場份額;CPU方面,根據Counterpoint Research數據,英特爾在2022年全球Notebook CPU/SoC市場中占據69.6%的市場份額,當前英特爾在PC主芯片市場中處于主導地位。23H2,英特爾推出Meteor Lake處理器,助力PC效能提升,專為AI任務設計,在AI PC主芯片市場中具備先發優勢。
② 高通:2023年10月,高通于驍龍峰會上推出驍龍X Elite芯片,可支持130億參數大模型,為Windows-on-Arm筆記本設計,預計在2024年中期發布。算力方面,AI PC對PC芯片的算力要求更高,高通在端側AI推理能力優于英特爾。與此同時,生態方面,2022年至今Windows開始支持高通,已發布多輪支持Arm架構芯片的操作系統。未來,高通在以驍龍X Elite為代表的AI PC芯片的助力下,將在PC領域實現重要突破,逐步搶占市場份額。
3)大廠自研趨勢:科技巨頭加速自研,優先服務于自身云服務業務及AI條線。微軟于23年11月16日Ignite技術大會上發布兩款自研芯片——Azure Maia 100和Azure Cobalt 100,分別用于大語言模型的訓練推理和通用云服務的支持。近年來,各大科技廠商紛紛自研芯片,一是為了降低自身對第三方芯片和外部供應鏈的依賴;二是自研芯片可幫助各大廠商克服一定的通用芯片局限,通過CPU+GPU+DPU+定制芯片等結合方案,提升全系統整合效率、實現業務賦能;三是提高計算能效、減少長期硬件成本。
-
AI芯片
+關注
關注
17文章
1887瀏覽量
35021 -
算力
+關注
關注
1文章
977瀏覽量
14822 -
OpenAI
+關注
關注
9文章
1089瀏覽量
6514
原文標題:GPT-4 Turbo多模態,應用生態加速
文章出處:【微信號:AI_Architect,微信公眾號:智能計算芯世界】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論