在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌Transformer大進(jìn)化 機(jī)翻最強(qiáng)王者上線

DR2b_Aiobservat ? 來源:yxw ? 2019-06-18 10:26 ? 次閱讀

谷歌Evolved Transformer通過AutoML技術(shù)進(jìn)行特定任務(wù)定制,在編碼器和解碼器模塊底部的卷積層以分支模式運(yùn)行,提高了語言建模的性能,目前在機(jī)器翻譯領(lǐng)域可以達(dá)到最先進(jìn)的結(jié)果。

Transformer是一種AI架構(gòu),最早是在2017年Google的科學(xué)家合著的論文《Attention Is All You Need》中介紹的,它比較擅長撰寫散文和產(chǎn)品評論、合成聲音、以古典作曲家的風(fēng)格制作和聲。

但是,谷歌的一個研究小組認(rèn)為它可以更進(jìn)一步使用AutoML技術(shù),根據(jù)特定任務(wù)進(jìn)行定制翻譯。在一篇新發(fā)表的論文和博客中,研究人員描述了工作成果:與原始的Transformer相比,現(xiàn)在的Transformer既達(dá)到了最先進(jìn)的翻譯結(jié)果,也提高了語言建模的性能。

目前,他們已經(jīng)發(fā)布了新的模型Evolved Transformer——開放源代碼的AI模型和數(shù)據(jù)集庫,來作為Tensor2Tensor(谷歌基于tensorflow新開源的深度學(xué)習(xí)庫,該庫將深度學(xué)習(xí)所需要的元素封裝成標(biāo)準(zhǔn)化的統(tǒng)一接口,在使用其做模型訓(xùn)練時可以更加的靈活)的一部分。

一般意義上,AutoML方法是從控制器訓(xùn)練和評估質(zhì)量的隨機(jī)模型庫開始,該過程重復(fù)數(shù)千次,每次都會產(chǎn)生新的經(jīng)過審查的機(jī)器學(xué)習(xí)架構(gòu),控制器可以從中學(xué)習(xí)。最終,控制器開始為模型組件分配高概率,以便這些組件在驗(yàn)證數(shù)據(jù)集上更加準(zhǔn)確,而評分差的區(qū)域則獲得較低的概率。

研究人員稱,使用AutoML發(fā)現(xiàn)Evolved Transformer需要開發(fā)兩種新技術(shù),因?yàn)橛糜谠u估每種架構(gòu)性能的任務(wù)WMT'14英德語翻譯的計(jì)算成本很高。

第一種是通過暖啟動(warm starting)的方式,將初始模型填充為Transformer架構(gòu)進(jìn)行播種,而不采用隨機(jī)模型,有助于實(shí)現(xiàn)搜索。第二種漸進(jìn)式動態(tài)障礙(PDH)則增強(qiáng)了搜索功能,以便將更多的資源分配給能力最強(qiáng)的候選對象,若模型“明顯不良”,PDH就會終止評估,重新分配資源。

通過這兩種技術(shù),研究人員在機(jī)器翻譯上進(jìn)行大規(guī)模NAS,最終找到了Evolved Transformer。

(Evolved Transformer架構(gòu))

那么Evolved Transformer有什么特別之處呢?

與所有深度神經(jīng)網(wǎng)絡(luò)一樣,Evolved Transformer包含神經(jīng)元(函數(shù)),這些神經(jīng)元從輸入數(shù)據(jù)中傳輸“信號,并緩慢調(diào)整每個連接的突觸強(qiáng)度(權(quán)重),這是模型提取特征和學(xué)習(xí)進(jìn)行預(yù)測的方式。此外,Evolved Transformer還能使每個輸出元件連接到每個輸入元件,并且動態(tài)地計(jì)算它們之間的權(quán)重。

與大多數(shù)序列到序列模型一樣,Evolved Transformer包含一個編碼器,它將輸入數(shù)據(jù)(翻譯任務(wù)中的句子)編碼為嵌入(數(shù)學(xué)表示)和一個解碼器,同時使用這些嵌入來構(gòu)造輸出(翻譯)。

但研究人員也指出,Evolved Transformer也有一些部分與傳統(tǒng)模型不同:在編碼器和解碼器模塊底部的卷積層以分支模式運(yùn)行,即在合并到一起時,輸入需要通過兩個單獨(dú)的的卷積層。

雖然最初的Transformer僅僅依賴于注意力,但Evolved Transformer是一種利用自我關(guān)注和廣泛卷積的優(yōu)勢的混合體。

(原始Transforme與Evolved Transformer的性能對比)

在測試中,研究人員將Evolved Transformer與原始Transformer在模型搜索期間使用的英德翻譯任務(wù)進(jìn)行了比較,發(fā)現(xiàn)前者在BLEU(評估機(jī)器翻譯文本質(zhì)量的算法)和Perplexity(衡量概率分布預(yù)測樣本的程度)上性能更好。

在較大的數(shù)據(jù)中,Evolved Transformer達(dá)到了最先進(jìn)的性能,BLEU得分為29.8分。在涉及不同語言對和語言建模的翻譯實(shí)驗(yàn)中,Evolved Transformer相比于原始Transformer的性能提升了兩個Perplexity。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6173

    瀏覽量

    105640
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31158

    瀏覽量

    269505
  • 機(jī)器翻譯
    +關(guān)注

    關(guān)注

    0

    文章

    139

    瀏覽量

    14916
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    144

    瀏覽量

    6026

原文標(biāo)題:谷歌Transformer大進(jìn)化,機(jī)翻最強(qiáng)王者上線

文章出處:【微信號:Aiobservation,微信公眾號:人工智能觀察】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    transformer專用ASIC芯片Sohu說明

    2022年,我們打賭說transformer會統(tǒng)治世界。 我們花了兩年時間打造Sohu,這是世界上第一個用于transformer(ChatGPT中的“T”)的專用芯片。 將transformer
    的頭像 發(fā)表于 01-06 09:13 ?131次閱讀
    <b class='flag-5'>transformer</b>專用ASIC芯片Sohu說明

    AI眼鏡形態(tài)席卷可穿戴市場!谷歌眼鏡幾次“流產(chǎn)”,將靠AI

    ? 電子發(fā)燒友網(wǎng)報道(文/莫婷婷)在ChatGPT進(jìn)化史上,繞不開的一家廠商是谷歌。2024年12月,谷歌發(fā)布 Gemini 2.0,該產(chǎn)品被稱為登頂AI巔峰、秒殺ChatGPT O1。始終走在AI
    的頭像 發(fā)表于 12-26 00:12 ?2292次閱讀

    Transformer模型的具體應(yīng)用

    如果想在 AI 領(lǐng)域引領(lǐng)一輪新浪潮,就需要使用到 Transformer。
    的頭像 發(fā)表于 11-20 09:28 ?504次閱讀
    <b class='flag-5'>Transformer</b>模型的具體應(yīng)用

    Transformer模型能夠做什么

    盡管名為 Transformer,但它們不是電視銀幕上的變形金剛,也不是電線桿上垃圾桶大小的變壓器。
    的頭像 發(fā)表于 11-20 09:27 ?356次閱讀
    <b class='flag-5'>Transformer</b>模型能夠做什么

    板液位計(jì)怎么用磁鐵校正

    板液位計(jì)是一種常用的液位測量裝置,它利用磁鐵和磁板的相互作用來實(shí)現(xiàn)液位的測量。在使用過程中,有時需要對磁板液位計(jì)進(jìn)行磁鐵校正,以確保測量的準(zhǔn)確性。以下是關(guān)于磁板液位計(jì)磁鐵校正
    的頭像 發(fā)表于 07-31 09:40 ?990次閱讀

    Transformer能代替圖神經(jīng)網(wǎng)絡(luò)嗎

    Transformer作為一種在處理序列數(shù)據(jù)方面表現(xiàn)出色的深度學(xué)習(xí)模型,自其提出以來,已經(jīng)在自然語言處理(NLP)、時間序列分析等領(lǐng)域取得了顯著的成果。然而,關(guān)于Transformer是否能完全代替圖神經(jīng)網(wǎng)絡(luò)(GNN)的問題,需要從多個維度進(jìn)行深入探討。
    的頭像 發(fā)表于 07-12 14:07 ?481次閱讀

    Transformer語言模型簡介與實(shí)現(xiàn)過程

    在自然語言處理(NLP)領(lǐng)域,Transformer模型以其卓越的性能和廣泛的應(yīng)用前景,成為了近年來最引人注目的技術(shù)之一。Transformer模型由谷歌在2017年提出,并首次應(yīng)用于神經(jīng)機(jī)器翻譯
    的頭像 發(fā)表于 07-10 11:48 ?1897次閱讀

    使用PyTorch搭建Transformer模型

    Transformer模型自其問世以來,在自然語言處理(NLP)領(lǐng)域取得了巨大的成功,并成為了許多先進(jìn)模型(如BERT、GPT等)的基礎(chǔ)。本文將深入解讀如何使用PyTorch框架搭建Transformer模型,包括模型的結(jié)構(gòu)、訓(xùn)練過程、關(guān)鍵組件以及實(shí)現(xiàn)細(xì)節(jié)。
    的頭像 發(fā)表于 07-02 11:41 ?1701次閱讀

    谷歌SGE生成搜索引擎存在惡意網(wǎng)站推薦問題

    BleepingComputer研究發(fā)現(xiàn),谷歌SGE所推薦的上線網(wǎng)站大多選用.online頂級域名,經(jīng)過層層重定向后,用戶最終可能遭遇詐騙或惡意網(wǎng)頁。
    的頭像 發(fā)表于 03-26 13:59 ?387次閱讀

    新火種AI|谷歌深夜炸彈!史上最強(qiáng)開源模型Gemma,打響新一輪AI之戰(zhàn)

    作者:文子 編輯:小迪 谷歌,2024年卷出新高度。 全球最強(qiáng)開源模型,Gemma重燃戰(zhàn)局 短短12天連放三次大招,谷歌AI更新迭代之快,讓人始料未及。 當(dāng)?shù)貢r間2月21日,谷歌毫無預(yù)
    的頭像 發(fā)表于 02-23 10:21 ?369次閱讀
    新火種AI|<b class='flag-5'>谷歌</b>深夜炸彈!史上<b class='flag-5'>最強(qiáng)</b>開源模型Gemma,打響新一輪AI之戰(zhàn)

    谷歌大型模型終于開放源代碼,遲到但重要的開源戰(zhàn)略

    在人工智能領(lǐng)域,谷歌可以算是開源的鼻祖。今天幾乎所有的大語言模型,都基于谷歌在 2017 年發(fā)布的 Transformer 論文;谷歌的發(fā)布的 BERT、T5,都是最早的一批開源 AI
    發(fā)表于 02-22 18:14 ?461次閱讀
    <b class='flag-5'>谷歌</b>大型模型終于開放源代碼,遲到但重要的開源戰(zhàn)略

    基于Transformer模型的壓縮方法

    基于Transformer架構(gòu)的大型模型在人工智能領(lǐng)域中發(fā)揮著日益重要的作用,特別是在自然語言處理(NLP)和計(jì)算機(jī)視覺(CV)領(lǐng)域。
    的頭像 發(fā)表于 02-22 16:27 ?674次閱讀
    基于<b class='flag-5'>Transformer</b>模型的壓縮方法

    谷歌發(fā)布全球最強(qiáng)開源大模型Gemma

    谷歌近日宣布,其全新開源大模型Gemma正式亮相。Gemma被譽(yù)為全球性能最強(qiáng)大、同時也是最輕量級的模型系列,分為2B(20億參數(shù))和7B(70億)兩種尺寸版本。令人矚目的是,即便是2B版本,也能夠在筆記本電腦上流暢運(yùn)行。
    的頭像 發(fā)表于 02-22 14:51 ?829次閱讀

    谷歌Gemini 1.5深夜爆炸上線,史詩級多模態(tài)硬剛GPT-5!最強(qiáng)MoE首破100萬極限上下文紀(jì)錄

    我們經(jīng)歷了LLM劃時代的一夜。GeminiUltra發(fā)布還沒幾天,Gemini1.5就來了。卯足勁和OpenAI微軟一較高下的谷歌,開始進(jìn)入了高產(chǎn)模式。自家最強(qiáng)的Gemini1.0Ultra才發(fā)布
    的頭像 發(fā)表于 02-19 12:28 ?739次閱讀
    <b class='flag-5'>谷歌</b>Gemini 1.5深夜爆炸<b class='flag-5'>上線</b>,史詩級多模態(tài)硬剛GPT-5!<b class='flag-5'>最強(qiáng)</b>MoE首破100萬極限上下文紀(jì)錄

    OpenAI一鍵調(diào)用GPTs功能上線

    OpenAI近日宣布,其最新功能GPT Mentions現(xiàn)已上線。這一功能為用戶提供了一個便捷的方式來調(diào)用不同的GPTs(Generative Pre-trained Transformer),并支持不同GPT之間共享上下文內(nèi)容。
    的頭像 發(fā)表于 02-04 10:05 ?844次閱讀
    主站蜘蛛池模板: 天天色天天看| 免费一级毛片| 免费看男女做好爽好硬视频| 亚洲一区不卡视频| 可以看黄色的网站| 99久久99久久免费精品蜜桃| 欧美伊人久久综合网| 午夜美女写真福利写视频| 68日本 xxxxxxxxx| 波多野结衣50连精喷在线| 1000rt人体1000欧美| 中文字幕二区| 啪啪网视频| 亚洲国产视频网| 永久看日本大片免费| 欧美一区视频| 在线电影亚洲| 超刺激gay腐文h文| 性做久久久久久免费观看| 精品国产免费久久久久久婷婷| 中文字幕区| 在线观看成人网| 日韩一级片在线观看| 日韩免费视频一区| 老子影院午夜精品欧美视频| 国产高清成人| 国产精品国产三级国快看| 夜夜se| 亚洲爱v| 久久九九亚洲精品| 黄色拍拍拍| 国产美女主播一级成人毛片| 毛片视频免费网站| 欧美黑人粗暴另类多交| 韩漫免费网站无遮挡羞羞漫画| 五月天婷婷激情| 四虎官网| 色老头久久久久久久久久| 久久青草国产精品一区| 久久精品国产2020观看福利色| 两人性世界|