780GB降低到 。 開源社區直接開始狂歡,相關論文成為24小時內關注度最高的AI論文。 ? 以Meta的美洲駝LLaMA為基礎,得到原駝 650億參數版只需要48GB顯存單卡微調24小時,330億參數版只需要24GB顯存單卡微調12小時 。 24GB顯存,也就" />

在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

iPhone都能微調大模型了嘛

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 2023-06-02 15:26 ? 次閱讀

自動測試分數達到ChatGPT的99.3%,人類難以分辨兩者的回答……

這是開源大模型最新成果,來自羊駝家族的又一重磅成員——華盛頓大學原駝Guanaco)。

更關鍵的是,與原駝一起提出的新方法QLoRA把微調大模型的顯存需求從>780GB降低到<48GB

開源社區直接開始狂歡,相關論文成為24小時內關注度最高的AI論文。

以Meta的美洲駝LLaMA為基礎,得到原駝650億參數版只需要48GB顯存單卡微調24小時,330億參數版只需要24GB顯存單卡微調12小時

24GB顯存,也就是一塊消費級RTX3090或RTX4090顯卡足以。

不少網友在測試后也表示,更喜歡它而不是ChatGPT。

英偉達科學家Jim Fan博士對此評價為:大模型小型化的又一里程碑

先擴大規模再縮小,將成為開源AI社區的節奏。

而新的高效微調方法QLoRA迅速被開源社區接受,HuggingFace也在第一時間整合上線了相關代碼。

GPT-4做裁判,原駝得分達到ChatGPT的99.3%

論文中,團隊對原駝總共做了三項測試,自動評估、隨機匹配和人類評估。

測試數據來自小羊駝Vicuna和Open Assistant。

自動評估由大模型天花板GPT-4當裁判,對不同模型的回答進行打分,以ChatGPT(GPT3.5)的成績作為100%。

最終原駝650億版得分達到ChatGPT的99.3%,而GPT-4自己的得分是114.5%,谷歌Bard是94.8%。

07234144-fbd8-11ed-90ce-dac502259ad0.png

隨機匹配,采用棋類專業比賽和電子競技同款的Elo記分機制,由GPT-4和人類共同做裁判。

原駝650億和330億版最終得分超過ChatGPT(GPT3.5)。

0742960c-fbd8-11ed-90ce-dac502259ad0.png

人類評估,則是把原駝650億版的回答和ChatGPT的回答匿名亂序放在一起,人類來盲選哪個最好。

論文共同一作表示,研究團隊里的人都很難分辨出來,并把測試做成了一個小游戲放在Colab上,開放給大家挑戰。

076a3edc-fbd8-11ed-90ce-dac502259ad0.png

這里節選其中一個問題(附中文翻譯),你能分辨出哪個是ChatGPT回答的嗎?

問題:How can I improve my time management skills?(如何提高時間管理技能?)

079eccc4-fbd8-11ed-90ce-dac502259ad0.png

總的來說,原駝的優勢在于不容易被問題中的錯誤信息誤導,比如能指出地球從來沒有被科學界認為是平的。

以及擅長心智理論(Theory of Mind),也就是能推測理解他人的心理狀態

0819a64c-fbd8-11ed-90ce-dac502259ad0.png

但原駝也并非沒有弱點,團隊發發現它不太擅長數學,以及容易用提示注入攻擊把要求保密的信息從它嘴里套出來。

也有網友表示,雖然一個模型能在某個數據集上無限接近ChatGPT,但像ChatGPT那樣通用還是很難的。

全新方法QLoRA,iPhone都能微調大模型了

原駝論文的核心貢獻是提出新的微調方法QLoRA

其中Q代表量化(Quantization),用低精度數據類型去逼近神經網絡中的高精度浮點數,以提高運算效率。

LoRA是微軟團隊在2021年提出的低秩適應(Low-Rank Adaptation)高效微調方法,LoRA后來被移植到AI繪畫領域更被大眾熟知,但最早其實就是用于大語言模型的。

通常來說,LoRA微調與全量微調相比效果會更差,但團隊將LoRA添加到所有的線性層解決了這個問題。

具體來說,QLoRA結合了4-bit量化和LoRA,以及團隊新創的三個技巧:新數據類型4-bit NormalFloat分頁優化器(Paged Optimizers)和雙重量化(Double Quantization)。

最終QLoRA讓4-bit的原駝在所有場景和規模的測試中匹配16-bit的性能

0896aea8-fbd8-11ed-90ce-dac502259ad0.png

QLoRA的高效率,讓團隊在華盛頓大學的小型GPU集群上每天可以微調LLaMA 100多次……

最終使用Open Assistant數據集微調的版本性能勝出,成為原駝大模型。

Open Assistant數據集來自非盈利研究組織LAION(訓練Stable Diffusion的數據集也來自這里),雖然只有9000個樣本但質量很高,經過開源社區的人工仔細驗證。

這9000條樣本用于微調大模型,比100萬條指令微調(Instruction Finetune)樣本的谷歌FLAN v2效果還好。

研究團隊也據此提出兩個關鍵結論:

指令微調有利于推理,但不利于聊天

最后,QLoRA的高效率,還意味著可以用在手機上,論文共同一作Tim Dettmers估計以iPhone 12 Plus的算力每個晚上能微調300萬個單詞的數據量。

這意味著,很快手機上的每個App都能用上專用大模型。
責任編輯:彭菁

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • iPhone
    +關注

    關注

    28

    文章

    13470

    瀏覽量

    201865
  • 顯存
    +關注

    關注

    0

    文章

    110

    瀏覽量

    13673
  • 模型
    +關注

    關注

    1

    文章

    3254

    瀏覽量

    48881

原文標題:開源「原駝」爆火,iPhone都能微調大模型了,得分逼近ChatGPT!

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    iPhone X Plus和iPhone 9的最新消息模型機和保護殼的體驗

    國外有網友帶來了最新的 iPhone X Plus 和 iPhone 9 模型機和保護殼上手體驗。傳言稱 iPhone X Plus 搭載 6.5 寸顯示屏,而
    的頭像 發表于 07-07 10:43 ?4436次閱讀

    蘋果新款iPhone X Plus和LCD iPhone的機器模型泄露

    手機圈內比較知名的爆料者,爆料了兩款據稱是蘋果 2018 年新一代 iPhone 的機器模型,包括 6.5 英寸 iPhone X Plus 和 6.1 英寸LCD iPhone
    發表于 07-31 00:04 ?853次閱讀

    文本分類任務的Bert微調trick大全

    1 前言 大家現在打比賽對預訓練模型非常喜愛,基本上作為NLP比賽基線首選(圖像分類也有預訓練模型)。預訓練模型雖然很強,可能通過簡單的微調就能給我們帶來很大提升,但是大家會發現比賽做
    的頭像 發表于 07-18 09:49 ?2499次閱讀

    使用NVIDIA TAO工具包和Appen實現AI模型微調

    NVIDIA?TAO 工具包與 Appen 的數據平臺相結合,使您能夠訓練、微調和優化預訓練模型,以更快地啟動人工智能解決方案。在不犧牲質量的情況下,將開發時間縮短十倍。在NVIDIA 和 Appen 的綜合專業知識和工具的幫助下,您將滿懷信心地推出人工智能。
    的頭像 發表于 04-13 15:29 ?1367次閱讀
    使用NVIDIA TAO工具包和Appen實現AI<b class='flag-5'>模型</b><b class='flag-5'>微調</b>

    VREFBUF外設應用和微調技術

    VREFBUF外設應用和微調技術
    發表于 11-21 17:07 ?0次下載
    VREFBUF外設應用和<b class='flag-5'>微調</b>技術

    有哪些省內存的大語言模型訓練/微調/推理方法?

    首先,我們需要了解如何根據參數量估計模型大致所需的 RAM,這在實踐中有很重要的參考意義。我們需要通過估算設置 batch_size,設置模型精度,選擇微調方法和參數分布方法等。
    的頭像 發表于 04-10 11:41 ?1449次閱讀

    調教LLaMA類模型沒那么難,LoRA將模型微調縮減到幾小時

    工智能領域,以高效和有效的方式使用大型語言模型正變得越來越重要。 LoRA(Low-Rank Adaption,低秩自適應) 作為微調 LLMs 一種比較出圈的技術,其額外引入了可訓練的低秩分解矩陣,同時固定住預訓練權重,從而大大減少了下游任務的可訓練參數數量。
    的頭像 發表于 05-28 10:58 ?2699次閱讀
    調教LLaMA類<b class='flag-5'>模型</b>沒那么難,LoRA將<b class='flag-5'>模型</b><b class='flag-5'>微調</b>縮減到幾小時

    中軟國際參加首期百度智能云文心千帆大模型SFT微調能力實訓營

    2023年7月15日,中軟國際受邀在百度大廈參加了首期百度智能云文心千帆大模型SFT微調能力實訓營。此次培訓旨在提高合作伙伴對大模型的理解和落地能力,更好地幫助客戶落地大模型和相關應用
    的頭像 發表于 07-17 18:15 ?818次閱讀
    中軟國際參加首期百度智能云文心千帆大<b class='flag-5'>模型</b>SFT<b class='flag-5'>微調</b>能力實訓營

    OpenAI開放大模型微調功能 GPT-3.5可以打造專屬ChatGPT

    OpenAI開放大模型微調功能 GPT-3.5可以打造專屬ChatGPT OpenAI開放大模型微調功能,這意味著GPT-3.5 Turbo支持自定義
    的頭像 發表于 08-23 19:34 ?1227次閱讀

    OpenAI開放大模型微調功能!

    除了提高性能之外,還能縮短提示時間,確保類似性能。另外,微調目前僅支持處理4000 tokens,這也是此前微調型號的兩倍。16k tokens微調將于今年秋季推出。
    的頭像 發表于 08-24 16:39 ?642次閱讀
    OpenAI開放大<b class='flag-5'>模型</b><b class='flag-5'>微調</b>功能!

    盤古大模型3.0是什么?

    從整體上看,盤古大模型分為3個訓練階段。一是事前培訓,利用龐大數據進行事前培訓,獲得通用基礎模型;二是針對微調,下游行業的具體任務,結合行業數據進行微調。三是將大型
    的頭像 發表于 09-05 09:43 ?2097次閱讀

    一種新穎的大型語言模型知識更新微調范式

    我們使用LLAMA2-7B作為實驗的基礎模型。我們主要評估將舊知識更新為新知識的能力,因此模型將首先在舊知識上進行為期3個時期的微調。表1中F-Learning中設置的超參數λ分別取值為0.3、0.7、0.1和1.5。
    發表于 12-01 15:10 ?449次閱讀
    一種新穎的大型語言<b class='flag-5'>模型</b>知識更新<b class='flag-5'>微調</b>范式

    四種微調模型的方法介紹

    微調(Full Fine-tuning):全微調是指對整個預訓練模型進行微調,包括所有的模型參數。在這種方法中,預訓練
    發表于 01-03 10:57 ?2.4w次閱讀
    四種<b class='flag-5'>微調</b>大<b class='flag-5'>模型</b>的方法介紹

    基于雙級優化(BLO)的消除過擬合的微調方法

    這篇論文試圖解決的問題是大型預訓練模型在下游任務中進行微調時出現的過擬合問題。盡管低秩適應(LoRA)及其變體通過學習低秩增量矩陣有效地減少了與完全微調方法相比的可訓練參數數量。
    的頭像 發表于 04-02 16:46 ?703次閱讀
    基于雙級優化(BLO)的消除過擬合的<b class='flag-5'>微調</b>方法

    模型為什么要微調?大模型微調的原理

    難以達到最佳性能。為了提升模型在特定任務上的表現,微調(Fine-tuning)成為了一個關鍵步驟。本文將詳細探討大模型為什么要進行微調以及微調
    的頭像 發表于 07-10 10:43 ?4180次閱讀
    主站蜘蛛池模板: 中文字幕婷婷| 日韩亚洲人成网站在线播放| 4444狠狠| 2018天天干天天操| 免费在线观看的网站| 中文字幕在线一区二区在线| 亚洲视频一区二区在线观看| 亚洲欧美一区二区三区图片 | 欧美成人福利| 狠狠干狠狠鲁| 1717国产精品久久| 日韩插插| 欧美性xxxx巨大黑人猛| 日不卡| 在线免费黄| 色老头久久久久| 九九99久久精品影视| 国产一级特黄aaa大片| 色五丁香| 欧美成人亚洲| 亚洲成人网在线| 日本国产黄色片| 教官的好爽好深h片段| 222www免费观看| 欧美成人午夜影院| 午夜污片| 丁香婷婷亚洲六月综合色| 7m视频精品凹凸在线播放| 色综合色综合色综合| 窝窝午夜在线观看免费观看| 女a男0攻巨肉高h| 色综合一区二区三区| 精品欧美一区二区三区| 午夜毛片网站| 1024手机在线看片| 91视频啪啪| 拍拍拍拍拍拍拍无挡大全免费| 国产免费播放一区二区三区| 色妞女女女女女bbbb| 2022年永久免费观看| 香蕉久久夜色精品国产2020 |