在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

對(duì)話式LLM用于硬件設(shè)計(jì)

sanyue7758 ? 來源:ScienceAI ? 2023-06-15 09:49 ? 次閱讀

通常,開發(fā)任何類型的硬件(包括芯片,作為電子設(shè)備大腦的微小電子元件),都是從用正常語言描述硬件應(yīng)該做什么開始的。然后,經(jīng)過專門訓(xùn)練的工程師將該描述翻譯成硬件描述語言(HDL),例如 Verilog,以創(chuàng)建允許硬件執(zhí)行其任務(wù)的實(shí)際電路元件。

自動(dòng)化此翻譯可以減少工程過程中的人為錯(cuò)誤來源。但是,直到最近,AI 才展示了基于機(jī)器的端到端設(shè)計(jì)翻譯的能力。一些大型語言模型(LLM),如 OpenAI 的 ChatGPT 和谷歌的 Bard,聲稱能夠生成各種編程語言的代碼;但它們?cè)谟布O(shè)計(jì)中的應(yīng)用尚未得到廣泛研究。

近日,來自紐約大學(xué)和新南威爾士大學(xué)的研究團(tuán)隊(duì)使用簡單的英語「對(duì)話」與 AI 模型制造了一個(gè)微處理芯片,這是一項(xiàng)史無前例的成就,可以加快芯片開發(fā)速度,并允許沒有專業(yè)技術(shù)技能的個(gè)人設(shè)計(jì)芯片。

研究團(tuán)隊(duì)展示了兩名硬件工程師如何用標(biāo)準(zhǔn)英語與 ChatGPT-4「交談」,以設(shè)計(jì)一種新型微處理器架構(gòu)。然后,研究人員將設(shè)計(jì)送去制造。

在該研究中,LLM 能夠通過來回對(duì)話生成可行的 Verilog。隨后將基準(zhǔn)測試和處理器發(fā)送到 Skywater 130 納米穿梭機(jī)上進(jìn)行流片(tapeout)。

研究共同作者 Hammond Pearce 說:「我們認(rèn)為這項(xiàng)研究產(chǎn)生了第一個(gè)完全由 AI 生成的 HDL,用于制造物理芯片。這項(xiàng)研究表明,AI 也可以使硬件制造受益,特別是當(dāng)它被用于對(duì)話時(shí),你可以來回地完善設(shè)計(jì)。」

研究背景

隨著數(shù)字設(shè)計(jì)的能力和復(fù)雜性不斷增長,集成電路 (IC) 計(jì)算機(jī)輔助設(shè)計(jì) (CAD) 中的軟件組件已在整個(gè)電子設(shè)計(jì)自動(dòng)化流程中采用機(jī)器學(xué)習(xí) (ML)。傳統(tǒng)方法試圖對(duì)每個(gè)過程進(jìn)行正式建模,而基于 ML 的方法則側(cè)重于識(shí)別和利用可概括的高級(jí)特征或模式——這意味著 ML 可以增強(qiáng)甚至取代某些工具。盡管如此,IC CAD 中的 ML 研究仍傾向于關(guān)注后端過程。

在此,研究團(tuán)隊(duì)探索了將新興類型的 ML 模型應(yīng)用于硬件設(shè)計(jì)過程的早期階段時(shí)面臨的挑戰(zhàn)和機(jī)遇:硬件描述語言 (HDL) 本身的編寫。

雖然硬件設(shè)計(jì)以 HDL 表示,但它們實(shí)際上以自然語言(例如英語需求文檔)提供的規(guī)范開始設(shè)計(jì) lifecycle。將這些轉(zhuǎn)換為適當(dāng)?shù)?HDL(例如 Verilog)的過程必須由硬件工程師完成,這既耗時(shí)又容易出錯(cuò)。使用高級(jí)合成工具等替代途徑可以讓開發(fā)人員使用 C 語言等高級(jí)語言指定功能,但這些方法是以犧牲硬件效率為代價(jià)的。這激發(fā)了對(duì) AI 或基于 ML 的工具的探索,將其作為將規(guī)范轉(zhuǎn)換為 HDL 的替代途徑。

最新的 LLM (如 OpenAI 的 ChatGPT 和 Google 的 Bard)為其功能提供了不同的「會(huì)話」聊天界面。

會(huì)話式 LLM 用于迭代設(shè)計(jì)硬件

受 LLM 發(fā)展的啟發(fā),研究人員提出以下問題:將這些工具集成到 HDL 開發(fā)過程中有哪些潛在優(yōu)勢和障礙?

為了理解這項(xiàng)新興技術(shù)的重要性,進(jìn)行像這樣的觀察性研究至關(guān)重要。對(duì)會(huì)話式 LLM 對(duì)硬件設(shè)計(jì)的影響的調(diào)查既相關(guān)又及時(shí)。

0fde548e-0ac6-11ee-962d-dac502259ad0.png

圖 1:會(huì)話式 LLM 能否用于迭代設(shè)計(jì)硬件?(來源:論文)

該研究的貢獻(xiàn)如下:

首次對(duì)對(duì)話式 LLM 在硬件設(shè)計(jì)中的使用進(jìn)行了研究。

開發(fā)基準(zhǔn)以評(píng)估 LLM 在功能硬件開發(fā)和驗(yàn)證方面的能力。

利用 ChatGPT-4,對(duì)硬件中復(fù)雜應(yīng)用程序的端到端協(xié)同設(shè)計(jì)進(jìn)行觀察性研究。

首次使用 AI 為流片編寫完整的 HDL,實(shí)現(xiàn)了一個(gè)重要的里程碑。

為在硬件相關(guān)任務(wù)中有效利用尖端會(huì)話 LLM 提供實(shí)用建議。

研究人員進(jìn)行了兩個(gè)對(duì)話實(shí)驗(yàn)。第一個(gè)實(shí)驗(yàn)涉及預(yù)定義的對(duì)話流程和一系列基準(zhǔn)挑戰(zhàn),而第二個(gè)實(shí)驗(yàn)需要一個(gè)開放式的「自由聊天」方法,LLM 在一個(gè)更大的項(xiàng)目中擔(dān)任聯(lián)合設(shè)計(jì)師。

從本質(zhì)上講,有無數(shù)種方法可以與對(duì)話模型「聊天」。為了探索使用會(huì)話式 LLM 實(shí)現(xiàn)「標(biāo)準(zhǔn)化」和「自動(dòng)化」流程的潛力,研究人員定義了一個(gè)嚴(yán)格的「腳本化」對(duì)話基于一系列基準(zhǔn)。

然后,研究人員使用一致的指標(biāo)評(píng)估一系列 LLM,根據(jù)通過附帶測試平臺(tái)所需的指令水平確定對(duì)話的相對(duì)成功或失敗。然而,雖然對(duì)話流在結(jié)構(gòu)上保持相同,但它在測試運(yùn)行之間固有地存在一些差異,這取決于評(píng)估者需要決定 (a) 每個(gè)步驟中需要什么反饋,以及 (b) 如何格式化人類反饋。

下圖詳細(xì)說明了與 LLM 對(duì)話以創(chuàng)建硬件基準(zhǔn)的一般流程。

10015d9e-0ac6-11ee-962d-dac502259ad0.png

圖 2:簡化的 LLM 對(duì)話流程圖。(來源:論文)

真實(shí)世界的硬件設(shè)計(jì)具有更廣泛和更復(fù)雜的要求。考慮到以前使用的方法時(shí),這是一個(gè)挑戰(zhàn),該方法編寫并限制了人類與 LLM 交互的方式。然而,鑒于不同層次的人類反饋相對(duì)成功,研究人員試圖研究非結(jié)構(gòu)化對(duì)話是否可以帶來更高水平的表現(xiàn)和相互創(chuàng)造力。對(duì)此進(jìn)行調(diào)查通常會(huì)通過大規(guī)模的用戶研究來完成,硬件工程師在開發(fā)過程中會(huì)與該工具配對(duì)。研究目標(biāo)是通過執(zhí)行概念驗(yàn)證實(shí)驗(yàn)來推動(dòng)硬件領(lǐng)域的此類研究,將 ChatGPT-4 與經(jīng)驗(yàn)豐富的硬件設(shè)計(jì)工程師(論文作者之一)配對(duì), 并在執(zhí)行更復(fù)雜的設(shè)計(jì)任務(wù)時(shí)定性地檢查結(jié)果。

挑戰(zhàn)與機(jī)會(huì)

挑戰(zhàn):雖然很明顯,使用對(duì)話式 LLM 來協(xié)助設(shè)計(jì)和實(shí)現(xiàn)硬件設(shè)備總體上是有益的,但該技術(shù)尚不能僅通過驗(yàn)證工具的反饋來一致地設(shè)計(jì)硬件。當(dāng)前最先進(jìn)的模型在理解和修復(fù)這些工具出現(xiàn)的錯(cuò)誤方面表現(xiàn)不夠好,無法僅通過初始人機(jī)交互來創(chuàng)建完整的設(shè)計(jì)和測試平臺(tái)。

機(jī)會(huì):盡管如此,當(dāng)人類反饋被提供給功能更強(qiáng)大的 ChatGPT-4 模型,或者用于協(xié)同設(shè)計(jì)時(shí),語言模型似乎是一個(gè)「力量倍增器」,允許快速設(shè)計(jì)空間探索和迭代??偟膩碚f,ChatGPT-4 可以生成功能正確的代碼,這可以在實(shí)現(xiàn)通用模塊時(shí)節(jié)省設(shè)計(jì)人員的時(shí)間。

未來可能的工作可能涉及更大規(guī)模的用戶研究以調(diào)查這種潛力,以及開發(fā)特定于硬件設(shè)計(jì)的會(huì)話式 LLM 以改進(jìn)結(jié)果。




審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • HDL語言
    +關(guān)注

    關(guān)注

    0

    文章

    47

    瀏覽量

    8942
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1116

    瀏覽量

    6625
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1566

    瀏覽量

    7925
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    298

    瀏覽量

    361

原文標(biāo)題:對(duì)話式 LLM 用于硬件設(shè)計(jì),首個(gè)完全由 AI 輔助創(chuàng)建的微處理芯片誕生

文章出處:【微信號(hào):處芯積律,微信公眾號(hào):處芯積律】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【比特熊充電棧】實(shí)戰(zhàn)演練構(gòu)建LLM對(duì)話引擎

    大模型時(shí)代,安全問題不容小覷。但如果把大模型比作孫悟空,那 NVIDIA NeMo Guardrails 就是“安全護(hù)欄”,可以輕松的為基于 LLM對(duì)話系統(tǒng)添加可編程護(hù)欄,來避免大語言模型輸出
    的頭像 發(fā)表于 09-19 13:40 ?1067次閱讀
    【比特熊充電棧】實(shí)戰(zhàn)演練構(gòu)建<b class='flag-5'>LLM</b><b class='flag-5'>對(duì)話</b>引擎

    對(duì)比解碼在LLM上的應(yīng)用

    為了改進(jìn)LLM的推理能力,University of California聯(lián)合Meta AI實(shí)驗(yàn)室提出將Contrastive Decoding應(yīng)用于多種任務(wù)的LLM方法。實(shí)驗(yàn)表明,所提方法能有效改進(jìn)
    發(fā)表于 09-21 11:37 ?656次閱讀
    對(duì)比解碼在<b class='flag-5'>LLM</b>上的應(yīng)用

    對(duì)話系統(tǒng)最原始的實(shí)現(xiàn)方式 檢索對(duì)話

    檢索對(duì)話作為對(duì)話系統(tǒng)最原始的實(shí)現(xiàn)方式,又蘊(yùn)涵著什么有意思的東西,我們來看看。 什么是對(duì)話系統(tǒng) 對(duì)話從來就不是一個(gè)簡單的任務(wù),這是一個(gè)涉及理
    的頭像 發(fā)表于 09-25 17:08 ?2375次閱讀
    <b class='flag-5'>對(duì)話</b>系統(tǒng)最原始的實(shí)現(xiàn)方式   檢索<b class='flag-5'>式</b><b class='flag-5'>對(duì)話</b>

    Chameo:對(duì)話人工智能

    電子發(fā)燒友網(wǎng)站提供《Chameo:對(duì)話人工智能.zip》資料免費(fèi)下載
    發(fā)表于 11-10 09:56 ?0次下載
    Chameo:<b class='flag-5'>對(duì)話</b><b class='flag-5'>式</b>人工智能

    用于各種NLP任務(wù)的開源LLM的finetune教程~

    ChatGLM2-6b是清華開源的小尺寸LLM,只需要一塊普通的顯卡(32G較穩(wěn)妥)即可推理和微調(diào),是目前社區(qū)非?;钴S的一個(gè)開源LLM。
    的頭像 發(fā)表于 07-24 09:04 ?1749次閱讀
    適<b class='flag-5'>用于</b>各種NLP任務(wù)的開源<b class='flag-5'>LLM</b>的finetune教程~

    Stability AI發(fā)布首個(gè)用于編程的生成LLM AI產(chǎn)品—StableCode

    Stability AI 近日宣布了他們首個(gè)用于編程的生成 LLM AI 產(chǎn)品 ——StableCode。該產(chǎn)品旨在幫助程序員完成日常工作,并為新手開發(fā)者提供實(shí)用的學(xué)習(xí)工具。
    的頭像 發(fā)表于 08-24 11:27 ?912次閱讀
    Stability AI發(fā)布首個(gè)<b class='flag-5'>用于</b>編程的生成<b class='flag-5'>式</b><b class='flag-5'>LLM</b> AI產(chǎn)品—StableCode

    在線研討會(huì) | 基于 Jetson 邊緣計(jì)算平臺(tái)構(gòu)建 Azure OpenAI LLM 安全護(hù)欄

    NVIDIANeMo Guardrails 是一個(gè)開源工具庫,致力于使 LLM 大語言模型的使用更加合法合規(guī)。它可以輕松地為基于 LLM對(duì)話系統(tǒng)添加可編程護(hù)欄,用以避免大語言模型輸出違法違規(guī)內(nèi)容
    的頭像 發(fā)表于 10-21 16:35 ?433次閱讀
    在線研討會(huì) | 基于 Jetson 邊緣計(jì)算平臺(tái)構(gòu)建 Azure OpenAI <b class='flag-5'>LLM</b> 安全護(hù)欄

    育碧發(fā)布全新生成AI原型:NPC以自發(fā)行為展開對(duì)話

    近日,育碧巴黎工作室推出了一款名為 NEON NPC 的全新 AI 原型項(xiàng)目。借助 NVIDIA 的 Audio2Face 及 InWorld 的 LLM 大語言模型技術(shù),NPC可以根據(jù)角色設(shè)定自發(fā)生成對(duì)話。
    的頭像 發(fā)表于 03-20 10:17 ?506次閱讀

    Yellow.ai 推出業(yè)界首款 Orchestrator LLM

    無需培訓(xùn)即可產(chǎn)生情景與人性兼具的客戶對(duì)話 通過準(zhǔn)確的查詢識(shí)別、保留對(duì)話歷史記錄以及跨渠道的無縫上下文切換來解決客戶對(duì)話中斷的問題,Orchestrator LLM 將客戶滿意度提高了
    的頭像 發(fā)表于 05-09 10:52 ?542次閱讀

    解鎖LLM新高度—OpenVINO? 2024.1賦能生成AI高效運(yùn)行

    LLM 的發(fā)展仍保持著驚人的速度。盡管現(xiàn)有的 LLM 已經(jīng)具備強(qiáng)大的功能,但通過 OpenVINO? 的優(yōu)化和推理加速,可以對(duì)這些復(fù)雜模型的執(zhí)行進(jìn)行精煉,實(shí)現(xiàn)更快、更高效的處理,減少計(jì)算開銷并最大限度發(fā)揮硬件潛力,這將直接導(dǎo)致
    的頭像 發(fā)表于 05-10 10:36 ?569次閱讀

    什么是LLM?LLM的工作原理和結(jié)構(gòu)

    隨著人工智能技術(shù)的飛速發(fā)展,大型語言模型(Large Language Model,簡稱LLM)逐漸成為自然語言處理(NLP)領(lǐng)域的研究熱點(diǎn)。LLM以其強(qiáng)大的文本生成、理解和推理能力,在文本
    的頭像 發(fā)表于 07-02 11:45 ?8486次閱讀

    llm模型和chatGPT的區(qū)別

    LLM(Large Language Model)是指大型語言模型,它們是一類使用深度學(xué)習(xí)技術(shù)構(gòu)建的自然語言處理(NLP)模型。LLM模型可以處理各種語言任務(wù),如文本生成、文本分類、機(jī)器翻譯等。目前
    的頭像 發(fā)表于 07-09 09:55 ?1246次閱讀

    LLM模型和LMM模型的區(qū)別

    LLM(線性混合模型)和LMM(線性混合效應(yīng)模型)之間的區(qū)別如下: 定義: LLM(線性混合模型)是一種統(tǒng)計(jì)模型,用于分析具有固定效應(yīng)和隨機(jī)效應(yīng)的線性數(shù)據(jù)。它允許研究者考慮數(shù)據(jù)中的非獨(dú)立性,例如
    的頭像 發(fā)表于 07-09 09:57 ?1122次閱讀

    llm模型有哪些格式

    LLM(Large Language Model,大型語言模型)是一種深度學(xué)習(xí)模型,主要用于處理自然語言處理(NLP)任務(wù)。LLM模型的格式多種多樣,以下是一些常見的LLM模型格式
    的頭像 發(fā)表于 07-09 09:59 ?704次閱讀

    如何訓(xùn)練自己的LLM模型

    訓(xùn)練自己的大型語言模型(LLM)是一個(gè)復(fù)雜且資源密集的過程,涉及到大量的數(shù)據(jù)、計(jì)算資源和專業(yè)知識(shí)。以下是訓(xùn)練LLM模型的一般步驟,以及一些關(guān)鍵考慮因素: 定義目標(biāo)和需求 : 確定你的LLM
    的頭像 發(fā)表于 11-08 09:30 ?723次閱讀
    主站蜘蛛池模板: 788gao这里只有精品| 日本口工全彩无遮拦漫画大| 欧美影院一区| 在线欧美色| 综合色区| 亚洲一区二区在线播放| 55夜色66夜色国产精品站| 亚洲光棍天堂| 在线日韩一区| 天堂资源站| 日本一线a视频免费观看| 午夜免费r级伦理片| 四虎影院在线免费观看| 青草青视频在线观看| 精品欧美一区二区三区| 777奇米影视一区二区三区| 天天爽夜夜爽精品视频一| 男人天堂资源网| 日女人免费视频| 国产在线精品一区二区夜色| 天天摸日日舔| 看全色黄大色大片免费久久| bt种子在线搜索| 久久午夜精品视频| 黄色网址网站在线观看| 久热网| 速度与激情10| 六月综合| 美女在线看永久免费网址| 二十年等一人小说在线观看| 天天操天天插| 国产视频黄色| 优优色综合| 你懂的视频在线看| 一级毛片女人喷潮| 亚洲va欧美va国产综合久久| 11111日本网站| 久热国产精品| 亚洲一卡2卡3卡4卡5卡乱码| 性感美女视频黄.免费网站| 久久奈|