在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基因組學大型語言模型在多項任務中均展現出卓越的性能和應用擴展空間

NVIDIA英偉達 ? 來源:未知 ? 2023-01-17 01:05 ? 次閱讀

InstaDeep、慕尼黑工業大學(TUM)和 NVIDIA 之間的合作推動了面向基因組學的多超級計算規模的基礎模型開發進程。這些模型在大量預測任務(例如啟動子和增強子位點預測)中展示了最先進的性能。

f0209c2e-95bd-11ed-bfe3-dac502259ad0.jpg

這一聯合團隊的研究指出,經過基因組學訓練的大型語言模型(LLM)可將應用擴展到大量基因組學任務。

該團隊使用 NVIDIA 的超級計算機 Cambridge-1 來訓練參數規模從 500M 到 2.5B 不等的各種大型語言模型(LLM)。這些模型在各種基因組數據集上進行了訓練,以探索模型規模和數據多樣性對下游任務性能的影響。

分類任務包括預測增強子和啟動子序列以及轉錄因子結合位點。這些任務有助于了解 DNA 如何轉錄生成 RNA 和蛋白質,從而開啟新的臨床應用。

研究中明確了 20 項任務。對于每一項任務,性能都隨著模型規模和數據集多樣性的增加而單調遞增。參照專門的最新模型基線,在多物種數據集上訓練的具有最大參數規模(2.5B 參數)的大型語言模型在 19 項任務中的 15 項中取得了同等或更高的性能。

這些結果是通過利用參數輕量化微調實現的。然而,即使依靠從 Transformer 模型各層提取的預訓練嵌入以及簡單的淺層感知器(MLP)或邏輯回歸,也足以在 11 個任務中實現同等乃至更高的性能。

在每個模型檢查點和每個任務的所有層上應用這種探測策略,訓練出了 120 萬個 MLP 模型。該研究對大型語言模型的訓練和使用等各方面進行了詳細分析,例如不同層對下游任務性能的影響。

在固定模型規模下直接比較序列多樣性,顯示出具有重要意義的性能提升,增加模型規模也是如此。例如,對于一個 500M 參數模型,僅在人類參考基因組上訓練的性能不如在 1000 基因組數據集上訓練的性能。

同樣,在 1000 基因組數據集上訓練的 2.5B 參數模型的性能優于任何 500M 參數模型。而對于相同的模型,性能會遜于在自定義多物種數據集上訓練的結果,即使下游性能是在僅涉及人類基因組的任務上測量的。

研究人員觀察到,并非所有嵌入都是平等創建的。雖然通常的做法建議使用大型語言模型的最后一層進行下游預測。但耐人尋味的是,中間層產生的表征在下游任務中顯示出明顯更高的性能。研究人員發現,最佳層的選擇取決于任務,表明不同類型的 DNA 特征被不同層的模型所捕獲。

InstaDeep 首席執行官 Karim Beguir 表示:“我們相信這些結果首次清楚地證明了基因組學基礎模型的可行性,這些模型能夠真正地推廣到多項任務中。這些結果從很多方面反映出了過去幾年內適應性基礎模型在自然語言處理方面的發展進程。如今,其應用于藥物研發和人類健康等如此具有挑戰性的問題,著實令人難以置信的興奮。”

NVIDIA 的 Cambridge-1 對該項目的成功至關重要。該項目需要高性能計算基礎設施來訓練具有捕獲基因組中遠程相互作用所需感受域的大型模型。

研究人員嘗試了多種方法、數據集大小、模型規模和分詞器方案,最終使用在 16 個 NVIDIA DGX A100 節點(128 個 A100 80GB GPU)上訓練的 2.5B 參數稀疏注意力模型,在多任務上實現了迄今公開發表的最佳性能。

在未來的研究工作中,該團隊計劃通過直接微調模型,探索進一步的下游任務性能改進,并將繼續在應用于基因組學的大型語言模型的架構創新方面展開合作。InstaDeep 是首批使用 Cambridge-1 的 NVIDIA 初創加速計劃成員之一。

掃描下方海報二維碼,即可免費注冊 GTC 23,切莫錯過這場 AI 和元宇宙時代的技術大會


原文標題:基因組學大型語言模型在多項任務中均展現出卓越的性能和應用擴展空間

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    22

    文章

    3780

    瀏覽量

    91217

原文標題:基因組學大型語言模型在多項任務中均展現出卓越的性能和應用擴展空間

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    Kimi發布視覺思考模型k1,展現卓越基礎科學能力

    色,其能力還成功擴展到了物理、化學等基礎科學領域。這標志著Kimi視覺思考模型的技術研發上取得了重大突破,為用戶多個學科領域提供了強大的支持。
    的頭像 發表于 12-17 09:59 ?282次閱讀

    NVIDIA AI助力日本制藥公司推進藥物研發

    制藥公司、醫療技術公司和學術研究人員正在開發主權 AI 能力,以驅動藥物發現、加速基因組學和醫療設備。
    的頭像 發表于 11-19 15:40 ?303次閱讀

    騰訊發布開源MoE大語言模型Hunyuan-Large

    性能,標志著騰訊自然語言處理領域邁出了重要的一步。 據了解,Hunyuan-Large的總參數量高達389B(即3890億),這一數字遠超當前許多主流的大語言
    的頭像 發表于 11-06 10:57 ?322次閱讀

    AI大模型自然語言處理的應用

    海量的文本數據,能夠生成結構化、連貫的文本段落。 新聞寫作、創意內容生成等場景,AI大模型展現出卓越的效果。例如,GPT系列
    的頭像 發表于 10-23 14:38 ?486次閱讀

    NVIDIA Parabricks v4.3.1版本的新功能

    NVIDIA Parabricks 擴大了 NVIDIA 利用深度學習解決基因組學挑戰的范圍,持續推動基因組學儀器的發展。NVIDIA Parabricks v4.3.1 歐洲人類遺傳學
    的頭像 發表于 09-10 10:22 ?392次閱讀
    NVIDIA Parabricks v4.3.1版本的新功能

    Transformer語言模型簡介與實現過程

    自然語言處理(NLP)領域,Transformer模型以其卓越性能和廣泛的應用前景,成為了近年來最引人注目的技術之一。Transform
    的頭像 發表于 07-10 11:48 ?1784次閱讀

    Meta AI主管楊立昆:大語言模型尚未到達人類智能水平

    他明確提出,雖然此類模型特定任務展現出優越性能,但其內在局限性使其難以媲美人類的智慧,如推理
    的頭像 發表于 05-23 17:18 ?734次閱讀

    【大語言模型:原理與工程實踐】大語言模型的應用

    任務上表現出色,甚至零樣本條件下也能取得良好效果。另一類則需要逐步推理才能完成的任務,類似于人類的系統2,如數字推理等。然而,隨著參數量的增加,大
    發表于 05-07 17:21

    【大語言模型:原理與工程實踐】大語言模型的評測

    知識獲取、邏輯推理、代碼生成等方面的能力。這些評測基準包括語言建模能力、綜合知識能力、數學計算能力、代碼能力和垂直領域等多個維度。對于微調模型,對話能力的評測關注模型在對話
    發表于 05-07 17:12

    【大語言模型:原理與工程實踐】大語言模型的預訓練

    如此卓越性能,就是通過其核心能力對海量數據進行預訓練,再進行微調或對其什么型更好的根據人類的指令和偏好,發揮這些性能。隨著語言模型參數的不
    發表于 05-07 17:10

    Snowflake推出面向企業AI的大語言模型

    Snowflake公司近日推出了企業級AI模型——Snowflake Arctic,這是一款大型語言模型(LLM),專為滿足企業復雜工作負載的需求而設計。Snowflake Arcti
    的頭像 發表于 05-07 10:03 ?477次閱讀

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    之后,成為文本建模領域的熱門架構。不僅如此,它還對自然語言處理領域產生了深遠的影響。基于Transformer的預訓練模型,如GPT系列和BERT系列,已在多種任務上取得了卓越的成績。
    發表于 05-05 12:17

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    化能力和適應性。自然語言處理任務,大語言模型展現出
    發表于 05-04 23:55

    Anthropic推出Claude 3系列模型,全面超越GPT-4,樹立AI新標桿

    近日,AI領域的領軍企業Anthropic震撼發布了全新的Claude 3系列模型,該系列模型多模態和語言能力等關鍵領域展現出
    的頭像 發表于 03-05 09:49 ?696次閱讀

    小紅書搜索團隊研究新框架:負樣本模型蒸餾的重要性

    思維鏈(CoT)提示的幫助下,大語言模型(LLMs)展現出強大的推理能力。然而,思維鏈已被證明是千億級參數模型才具有的涌現能力。
    的頭像 發表于 01-30 10:37 ?1072次閱讀
    小紅書搜索團隊研究新框架:負樣本<b class='flag-5'>在</b>大<b class='flag-5'>模型</b>蒸餾<b class='flag-5'>中</b>的重要性
    主站蜘蛛池模板: 69日本xxxxxxxxx30| 免费理论片在线观看播放| 伊人婷婷涩六月丁香七月| 亚洲高清日韩精品第一区| 中国一级特黄特色真人毛片| 特色毛片| 国产片无遮挡在线看床戏| 四虎永久免费在线| 天堂在线中文字幕| 色aaa| 婷婷香蕉| 亚洲国产精品婷婷久久| 老师下面好紧| 日本不卡专区| 亚欧洲乱码专区视频| 欧美区在线| 中国性猛交xxxx乱大交| 国产午夜亚洲精品| 欧美精品aaa久久久影院| 天天干在线影院| 午夜爽爽性刺激一区二区视频| tv天堂| a天堂中文在线官网| 丁香婷婷久久大综合| 国产高清一区二区| 成人在线免费电影| 成人网在线| 色屁屁www影院免费观看视频| 天天操夜夜添| 色天天综合色天天天天看大| 2018天天操夜夜操| 国产激情三级| 夜夜春色| 亚洲 自拍 欧美 综合| 天堂网2014| 久久久久久久综合狠狠综合| 狠狠色丁香婷婷综合视频| 久草婷婷| 丁香六月激情婷婷| 免费一级毛片清高播放| 在线a亚洲老鸭窝天堂新地址 |