在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GPT-4推理提升1750%!清華姚班校友提出全新ToT框架

CVer ? 來源:新智元 ? 2023-05-24 14:39 ? 次閱讀

【導(dǎo)讀】由普林斯頓和谷歌DeepMind聯(lián)合提出的全新「思維樹」框架,讓GPT-4可以自己提案、評(píng)估和決策,推理能力最高可提升1750%。

2022年,前谷歌大腦華人科學(xué)家Jason Wei在一篇思維鏈的開山之作中首次提出,CoT可以增強(qiáng)LLM的推理能力。

但即便有了思維鏈,LLM有時(shí)也會(huì)在非常簡(jiǎn)單的問題上犯錯(cuò)。

最近,來自普林斯頓大學(xué)和Google DeepMind研究人員提出了一種全新的語言模型推理框架——「思維樹」(ToT)。

ToT將當(dāng)前流行的「思維鏈」方法泛化到引導(dǎo)語言模型,并通過探索文本(思維)的連貫單元來解決問題的中間步驟。

dac17346-f943-11ed-90ce-dac502259ad0.png

論文地址:https://arxiv.org/abs/2305.10601

項(xiàng)目地址:https://github.com/kyegomez/tree-of-thoughts

簡(jiǎn)單來說,「思維樹」可以讓LLM:

· 自己給出多條不同的推理路徑

· 分別進(jìn)行評(píng)估后,決定下一步的行動(dòng)方案

· 在必要時(shí)向前或向后追溯,以便實(shí)現(xiàn)進(jìn)行全局的決策

論文實(shí)驗(yàn)結(jié)果顯示,ToT顯著提高了LLM在三個(gè)新任務(wù)(24點(diǎn)游戲,創(chuàng)意寫作,迷你填字游戲)中的問題解決能力。

比如,在24點(diǎn)游戲中,GPT-4只解決了4%的任務(wù),但ToT方法的成功率達(dá)到了74%。

讓LLM「反復(fù)思考」

用于生成文本的大語言模型GPT、PaLM,現(xiàn)已經(jīng)證明能夠執(zhí)行各種廣泛的任務(wù)。

所有這些模型取得進(jìn)步的基礎(chǔ)仍是最初用于生成文本的「自回歸機(jī)制」,以從左到右的方式一個(gè)接一個(gè)地進(jìn)行token級(jí)的決策。

dacfbd8e-f943-11ed-90ce-dac502259ad0.png

那么,這樣一個(gè)簡(jiǎn)單的機(jī)制能否足以建立一個(gè)通向「解決通用問題的語言模型」?如果不是,哪些問題會(huì)挑戰(zhàn)當(dāng)前的范式,真正的替代機(jī)制應(yīng)該是什么?

恰恰關(guān)于「人類認(rèn)知」的文獻(xiàn)為這個(gè)問題提供了一些線索。

「雙重過程」模型的研究表明,人類有兩種決策模式:快速、自動(dòng)、無意識(shí)模式——「系統(tǒng)1」和緩慢、深思熟慮、有意識(shí)模式——「系統(tǒng)2」。

dad58fc0-f943-11ed-90ce-dac502259ad0.png

語言模型簡(jiǎn)單關(guān)聯(lián)token級(jí)選擇可以讓人聯(lián)想到「系統(tǒng)1」,因此這種能力可能會(huì)從「系統(tǒng)2」規(guī)劃過程中增強(qiáng)。

「系統(tǒng)1」可以讓LLM保持和探索當(dāng)前選擇的多種替代方案,而不僅僅是選擇一個(gè),而「系統(tǒng)2」評(píng)估其當(dāng)前狀態(tài),并積極地預(yù)見、回溯以做出更全局的決策。

dae2c280-f943-11ed-90ce-dac502259ad0.png

為了設(shè)計(jì)這樣一個(gè)規(guī)劃過程,研究者便追溯到人工智能和認(rèn)知科學(xué)的起源,從科學(xué)家Newell、Shaw和Simon在20世紀(jì)50年代開始探索的規(guī)劃過程中汲取靈感。

Newell及其同事將問題解決描述為「通過組合問題空間進(jìn)行搜索」,表示為一棵樹。

一個(gè)真正的問題解決過程包括重復(fù)使用現(xiàn)有信息來探索,反過來,這將發(fā)現(xiàn)更多的信息,直到最終找到解決方法。

daea6206-f943-11ed-90ce-dac502259ad0.png

這個(gè)觀點(diǎn)突出了現(xiàn)有使用LLM解決通用問題方法的2個(gè)主要缺點(diǎn):

1. 局部來看,LLM沒有探索思維過程中的不同延續(xù)——樹的分支。

2. 總的來看,LLM不包含任何類型的計(jì)劃、前瞻或回溯,來幫助評(píng)估這些不同的選擇。

為了解決這些問題,研究者提出了用語言模型解決通用問題的思維樹框架(ToT),讓LLM可以探索多種思維推理路徑。

ToT四步法

當(dāng)前,現(xiàn)有的方法,如IO、CoT、CoT-SC,通過采樣連續(xù)的語言序列進(jìn)行問題解決。

而ToT主動(dòng)維護(hù)了一個(gè)「思維樹」。每個(gè)矩形框代表一個(gè)思維,并且每個(gè)思維都是一個(gè)連貫的語言序列,作為解決問題的中間步驟。

daefb846-f943-11ed-90ce-dac502259ad0.png

ToT將任何問題定義為在樹上進(jìn)行搜索,其中每個(gè)節(jié)點(diǎn)都是一個(gè)狀態(tài)

daf85f8c-f943-11ed-90ce-dac502259ad0.png

,表示到目前為止輸入和思維序列的部分解。

ToT執(zhí)行一個(gè)具體任務(wù)時(shí)需要回答4個(gè)問題:

如何將中間過程分解為思維步驟;如何從每個(gè)狀態(tài)生成潛在的想法;如何啟發(fā)性地評(píng)估狀態(tài);使用什么搜索算法

1. 思維分解

CoT在沒有明確分解的情況下連貫抽樣思維,而ToT利用問題的屬性來設(shè)計(jì)和分解中間的思維步驟。

根據(jù)不同的問題,一個(gè)想法可以是幾個(gè)單詞(填字游戲) ,一條方程式(24點(diǎn)) ,或者一整段寫作計(jì)劃(創(chuàng)意寫作)。

一般來說,一個(gè)想法應(yīng)該足夠「小」,以便LLM能夠產(chǎn)生有意義、多樣化的樣本。比如,生成一本完整的書通常太「大」而無法連貫 。

但一個(gè)想法也應(yīng)該「大」,足以讓LLM能夠評(píng)估其解決問題的前景。例如,生成一個(gè)token通常太「小」而無法評(píng)估。

2. 思維生成器

db054e68-f943-11ed-90ce-dac502259ad0.png

給定樹狀態(tài)

db0b74be-f943-11ed-90ce-dac502259ad0.png

,通過2種策略來為下一個(gè)思維步驟生成k個(gè)候選者。

(a)從一個(gè)CoT提示采樣db10d9d6-f943-11ed-90ce-dac502259ad0.png思維:

db16c08a-f943-11ed-90ce-dac502259ad0.png

db1d144e-f943-11ed-90ce-dac502259ad0.png

在思維空間豐富(比如每個(gè)想法都是一個(gè)段落),并且db23efd0-f943-11ed-90ce-dac502259ad0.png導(dǎo)致多樣性時(shí),效果更好。

(b)使用「proposal prompt」按順序提出想法:

db2b3042-f943-11ed-90ce-dac502259ad0.png

。這在思維空間受限制(比如每個(gè)思維只是一個(gè)詞或一行)時(shí)效果更好,因此在同一上下文中提出不同的想法可以避免重復(fù)。

3. 狀態(tài)求值器

db30232c-f943-11ed-90ce-dac502259ad0.png

給定不同狀態(tài)的前沿,狀態(tài)評(píng)估器評(píng)估它們解決問題的進(jìn)展,作為搜索算法的啟發(fā)式算法,以確定哪些狀態(tài)需要繼續(xù)探索,以及以何種順序探索。

雖然啟發(fā)式算法是解決搜索問題的標(biāo)準(zhǔn)方法,但它們通常是編程的(DeepBlue)或?qū)W習(xí)的(AlphaGo)。這里,研究者提出了第三種選擇,通過LLM有意識(shí)地推理狀態(tài)。

在適用的情況下,這種深思熟慮的啟發(fā)式方法可以比程序規(guī)則更靈活,比學(xué)習(xí)模型更有效率。與思維生成器,研究人員也考慮2種策略來獨(dú)立或一起評(píng)估狀態(tài):對(duì)每個(gè)狀態(tài)獨(dú)立賦值;跨狀態(tài)投票。

4. 搜索算法

最后,在ToT框架中,人們可以根據(jù)樹的結(jié)構(gòu),即插即用不同的搜索算法。

研究人員在此探索了2個(gè)相對(duì)簡(jiǎn)單的搜索算法:

算法1——廣度優(yōu)先搜索(BFS),每一步維護(hù)一組b最有希望的狀態(tài)。

算法2——深度優(yōu)先搜索(DFS),首先探索最有希望的狀態(tài),直到達(dá)到最終的輸出db377d7a-f943-11ed-90ce-dac502259ad0.png,或者狀態(tài)評(píng)估器認(rèn)為不可能從當(dāng)前的db3c16a0-f943-11ed-90ce-dac502259ad0.png為閾值db408154-f943-11ed-90ce-dac502259ad0.png解決問題。在這兩種情況下,DFS都會(huì)回溯到s的父狀態(tài)以繼續(xù)探索。

db4844b6-f943-11ed-90ce-dac502259ad0.png

由上,LLM通過自我評(píng)估和有意識(shí)的決策,來實(shí)現(xiàn)啟發(fā)式搜索的方法是新穎的。

實(shí)驗(yàn)

為此,團(tuán)隊(duì)提出了三個(gè)任務(wù)用于測(cè)試——即使是最先進(jìn)的語言模型GPT-4,在標(biāo)準(zhǔn)的IO提示或思維鏈(CoT)提示下,都是非常富有挑戰(zhàn)的。

db4fffb2-f943-11ed-90ce-dac502259ad0.png

24點(diǎn)(Game of 24)

24點(diǎn)是一個(gè)數(shù)學(xué)推理游戲,目標(biāo)是使用4個(gè)數(shù)字和基本算術(shù)運(yùn)算(+-*/)來得到24。

例如,給定輸入「4 9 10 13」,答案的輸出可能是「(10-4)*(13-9)=24」。

db592c54-f943-11ed-90ce-dac502259ad0.png

ToT設(shè)置

團(tuán)隊(duì)將模型的思維過程分解為3個(gè)步驟,每個(gè)步驟都是一個(gè)中間方程。

如圖2(a)所示,在每個(gè)節(jié)點(diǎn)上,提取「左邊」的數(shù)字并提示LLM生成可能的下一步。(每一步給出的「提議提示」都相同)

其中,團(tuán)隊(duì)在ToT中進(jìn)行寬度優(yōu)先搜索(BFS),并在每一步都保留最好的b=5個(gè)候選項(xiàng)。

如圖2(b)所示,提示LLM評(píng)估每個(gè)思維候選項(xiàng)是「肯定/可能/不可能」達(dá)到24。基于「過大/過小」的常識(shí)消除不可能的部分解決方案,保留剩下的「可能」項(xiàng)。

db5f0638-f943-11ed-90ce-dac502259ad0.png

結(jié)果

如表2所示,IO,CoT和CoT-SC提示方法在任務(wù)上的表現(xiàn)不佳,成功率僅為7.3%,4.0%和9.0%。相比之下,ToT在廣度為b=1時(shí)已經(jīng)達(dá)到了45%的成功率,而在b=5時(shí)達(dá)到了74%。

團(tuán)隊(duì)還考慮了IO/CoT的預(yù)測(cè)設(shè)置,通過使用最佳的k個(gè)樣本(1≤k≤100)來計(jì)算成功率,并在圖3(a)中繪出5個(gè)成功率。

不出所料,CoT比IO擴(kuò)展得更好,最佳的100個(gè)CoT樣本達(dá)到了49%的成功率,但仍然比在ToT中探索更多節(jié)點(diǎn)(b》1)要差。

db669fce-f943-11ed-90ce-dac502259ad0.png

錯(cuò)誤分析

圖3(b)分析了CoT和ToT樣本在哪一步失敗了任務(wù),即思維(在CoT中)或所有b個(gè)思維(在ToT中)都是無效的或無法達(dá)到24。

值得注意的是,大約60%的CoT樣本在第一步就已經(jīng)失敗了,或者說,是前三個(gè)詞(例如「4+9」)。

創(chuàng)意寫作

接下來,團(tuán)隊(duì)設(shè)計(jì)了一個(gè)創(chuàng)意寫作任務(wù)。

其中,輸入是四個(gè)隨機(jī)句子,輸出應(yīng)該是一個(gè)連貫的段落,每段都以四個(gè)輸入句子分別結(jié)束。這樣的任務(wù)開放且富有探索性,挑戰(zhàn)創(chuàng)造性思維以及高級(jí)規(guī)劃。

值得注意的是,團(tuán)隊(duì)還在每個(gè)任務(wù)的隨機(jī)IO樣本上使用迭代-優(yōu)化(k≤5)方法,其中LLM基于輸入限制和最后生成的段落來判斷段落是否已經(jīng)「完全連貫」,如果不是,就生成一個(gè)優(yōu)化后的。

db6db930-f943-11ed-90ce-dac502259ad0.png

ToT設(shè)置

團(tuán)隊(duì)構(gòu)建了一個(gè)深度為2(只有1個(gè)中間思維步驟)的ToT。

LLM首先生成k=5的計(jì)劃并投票選擇最佳的一個(gè)(圖4),然后根據(jù)最佳計(jì)劃生成k=5的段落,然后投票選擇最佳的一個(gè)。

一個(gè)簡(jiǎn)單的zero-shot投票提示(「分析以下選擇,然后得出哪個(gè)最有可能實(shí)現(xiàn)指令」)被用來在兩個(gè)步驟中抽取5票。

db7421a8-f943-11ed-90ce-dac502259ad0.png

結(jié)果

圖5(a)顯示了100個(gè)任務(wù)中的GPT-4平均分?jǐn)?shù),其中ToT(7.56)被認(rèn)為比IO(6.19)和CoT(6.93)平均生成更連貫的段落。

雖然這樣的自動(dòng)評(píng)測(cè)可能會(huì)有噪音,但圖5(b)通過顯示人類在100個(gè)段落對(duì)中有41個(gè)更喜歡ToT而只有21個(gè)更喜歡CoT(其他38對(duì)被認(rèn)為「同樣連貫」)來確認(rèn)這一發(fā)現(xiàn)。

最后,迭代優(yōu)化在這個(gè)自然語言任務(wù)上更有效——將IO連貫性分?jǐn)?shù)從6.19提高到7.67,將ToT連貫性分?jǐn)?shù)從7.56提高到7.91。

團(tuán)隊(duì)認(rèn)為它可以被看作是在ToT框架下生成思維的第三種方法,新的思維可以通過優(yōu)化舊的思維而產(chǎn)生,而不是i.i.d.或順序生成。

迷你填字游戲

在24點(diǎn)游戲和創(chuàng)意寫作中,ToT相對(duì)較淺——最多需要3個(gè)思維步驟就能完成輸出。

最后,團(tuán)隊(duì)決定通過5×5的迷你填字游戲,來設(shè)置一個(gè)更難的問題。

同樣,目標(biāo)不僅僅是解決任務(wù),而是研究LLM作為一個(gè)通用問題解決者的極限。通過窺視自己的思維,以有目的性的推理作為啟發(fā),來指導(dǎo)自己的探索。

db7a8a70-f943-11ed-90ce-dac502259ad0.png

ToT設(shè)置

團(tuán)隊(duì)利用深度優(yōu)先搜索保持探索最有可能成功的后續(xù)單詞線索,直到狀態(tài)不再有希望,然后回溯到父狀態(tài)以探索替代的思維。

為了使搜索可行,后續(xù)的思維被限制不改變?nèi)魏我烟顚懙膯卧~或字母,這樣ToT最多有10個(gè)中間步驟。

對(duì)于思維生成,團(tuán)隊(duì)在每個(gè)狀態(tài)下將所有現(xiàn)有的思維(例如,「h2.motor; h1.tasks」對(duì)于圖6(a)中的狀態(tài))轉(zhuǎn)換為剩余線索的字母限制(例如,「v1.To heap: tm___;。..」),從而得到下一個(gè)單詞填寫位置和內(nèi)容的候選。 重要的是,團(tuán)隊(duì)也提示LLM給出不同思維的置信度,并在提案中匯總這些以獲得下一個(gè)要探索的思維的排序列表(圖6(a))。

對(duì)于狀態(tài)評(píng)估,團(tuán)隊(duì)類似地將每個(gè)狀態(tài)轉(zhuǎn)換為剩余線索的字母限制,然后評(píng)估每個(gè)線索是否可能在給定限制下填寫。

如果任何剩余的線索被認(rèn)為是「不可能」的(例如,「v1. To heap: tm_s_」),那么該狀態(tài)的子樹的探索就被剪枝,并且DFS回溯到其父節(jié)點(diǎn)來探索下一個(gè)可能的候選。

db83a84e-f943-11ed-90ce-dac502259ad0.png

結(jié)果

如表3所示,IO和CoT的提示方法在單詞級(jí)成功率上表現(xiàn)不佳,低于16%,而ToT顯著改善了所有指標(biāo),實(shí)現(xiàn)了60%的單詞級(jí)成功率,并解決了20個(gè)游戲中的4個(gè)。

鑒于IO和CoT缺乏嘗試不同線索、改變決策或回溯的機(jī)制,這種改善并不令人驚訝。

局限性與結(jié)論

ToT是一個(gè)讓LLM可以更自主、更智能地做決策和解決問題的框架。

它提高了模型決策的可解釋性以及與人類對(duì)齊的機(jī)會(huì),因?yàn)門oT所生成的表征表形式是可讀的、高級(jí)的語言推理,而不是隱式的、低級(jí)的token值。

對(duì)于那些GPT-4已經(jīng)十分擅長(zhǎng)的任務(wù)來說,ToT可能并是不必要的。

此外,像ToT這樣的搜索方法需要更多的資源(如GPT-4 API成本)來提高任務(wù)性能,但ToT的模塊化靈活性讓用戶可以自定義這種性能-成本平衡。

不過,隨著LLM被用于更多真實(shí)世界的決策應(yīng)用(如編程、數(shù)據(jù)分析、機(jī)器人技術(shù)等),ToT可以為研究那些即將出現(xiàn)的更為復(fù)雜的任務(wù),提供新的機(jī)會(huì)。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 框架
    +關(guān)注

    關(guān)注

    0

    文章

    403

    瀏覽量

    17489
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    524

    瀏覽量

    10277
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    354

    瀏覽量

    15380

原文標(biāo)題:GPT-4推理提升1750%!清華姚班校友提出全新ToT框架,讓LLM反復(fù)思考

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    OpenAI全新GPT-4o能力炸場(chǎng)!速度快/成本低,能讀懂人類情緒

    ”的意思。GPT-4o文本、推理、編碼能力達(dá)到GPT-4 Turbo水平,速度是上一代AI大模型GPT-4 Turbo的兩倍,但成本僅為GPT-4
    的頭像 發(fā)表于 05-15 00:15 ?7832次閱讀

    清華大學(xué)宣布成立人工智能學(xué)堂 期智擔(dān)綱“智”首席教授

    清華流傳一句話,半國英才聚清華,而清華一半英才在“”。據(jù)不完全統(tǒng)計(jì),自 2005 年開班至今,“
    的頭像 發(fā)表于 05-20 14:08 ?3440次閱讀

    GPT-4發(fā)布!多領(lǐng)域超越“人類水平”,專家:國內(nèi)落后2-3年

    帶來的提升是巨大的。OpenAI工作人員表示,“我們還在為機(jī)器學(xué)習(xí)模型設(shè)計(jì)的傳統(tǒng)基準(zhǔn)上對(duì)GPT-4進(jìn)行了評(píng)估。
    的頭像 發(fā)表于 03-16 01:58 ?4707次閱讀
    <b class='flag-5'>GPT-4</b>發(fā)布!多領(lǐng)域超越“人類水平”,專家:國內(nèi)落后2-3年

    ChatGPT升級(jí) OpenAI史上最強(qiáng)大模型GPT-4發(fā)布

    ChatGPT升級(jí) 史上最強(qiáng)大模型GPT-4發(fā)布 OpenAI正式推出了ChatGPT升級(jí)版本,號(hào)稱史上最強(qiáng)大模型GPT-4發(fā)布。OpenAI期待GPT-4成為一個(gè)更有價(jià)值的AI工具。 GPT
    的頭像 發(fā)表于 03-15 18:15 ?2825次閱讀

    關(guān)于GPT-4的產(chǎn)品化狂想

    GPT-4是條件,而不是結(jié)果
    的頭像 發(fā)表于 03-26 10:48 ?3003次閱讀
    關(guān)于<b class='flag-5'>GPT-4</b>的產(chǎn)品化狂想

    GPT-4是這樣搞電機(jī)的

    GPT-4寫電機(jī)基礎(chǔ)程序沒問題
    的頭像 發(fā)表于 04-17 09:41 ?1020次閱讀
    <b class='flag-5'>GPT-4</b>是這樣搞電機(jī)的

    深度:構(gòu)建GPT-4模型,如何商業(yè)落地?

    GPT-4引發(fā)海量算力需求,把握算力產(chǎn)業(yè)鏈機(jī)會(huì)。根據(jù)測(cè)算,我們認(rèn)為,在中性假設(shè)下,ChatGPT一年產(chǎn)生的API調(diào)用費(fèi)用約為6.2億美元,與此同時(shí),ChatGPT將在訓(xùn)練和推理層面對(duì)GPU產(chǎn)生巨大需求。
    的頭像 發(fā)表于 05-06 11:24 ?1175次閱讀
    深度:構(gòu)建<b class='flag-5'>GPT-4</b>模型,如何商業(yè)落地?

    GPT-4 的模型結(jié)構(gòu)和訓(xùn)練方法

    GPT-4 的發(fā)布報(bào)道上,GPT-4 的多模態(tài)能力讓人印象深刻,它可以理解圖片內(nèi)容給出圖片描述,甚至能在圖片內(nèi)容的基礎(chǔ)上理解其中的隱喻或推斷下一時(shí)刻的發(fā)展。
    的頭像 發(fā)表于 05-22 15:21 ?2641次閱讀
    <b class='flag-5'>GPT-4</b> 的模型結(jié)構(gòu)和訓(xùn)練方法

    微軟提出Control-GPT:用GPT-4實(shí)現(xiàn)可控文本到圖像生成!

    該研究提出了一個(gè)簡(jiǎn)單而有效的框架 Control-GPT,它利用 LLM 的強(qiáng)大功能根據(jù)文本 prompt 生成草圖。Control-GPT 的工作原理是首先使用
    的頭像 發(fā)表于 06-05 15:31 ?847次閱讀
    微軟<b class='flag-5'>提出</b>Control-<b class='flag-5'>GPT</b>:用<b class='flag-5'>GPT-4</b>實(shí)現(xiàn)可控文本到圖像生成!

    人工通用智能的火花:GPT-4的早期實(shí)驗(yàn)

    人工智能(AI)研究人員一直在開發(fā)和完善大型語言模型(LLMs),這些模型在各種領(lǐng)域和任務(wù)中表現(xiàn) 出非凡的能力,挑戰(zhàn)我們對(duì)學(xué)習(xí)和認(rèn)知的理解。由OpenAI開發(fā)的最新模型GPT-4[Ope23
    發(fā)表于 06-20 15:49 ?1次下載

    GPT-4已經(jīng)會(huì)自己設(shè)計(jì)芯片了嗎?

    ? GPT-4已經(jīng)會(huì)自己設(shè)計(jì)芯片了!芯片設(shè)計(jì)行業(yè)的一個(gè)老大難問題HDL,已經(jīng)被GPT-4順利解決。并且,它設(shè)計(jì)的130nm芯片,已經(jīng)成功流片。 GPT-4,已經(jīng)可以幫人類造芯片了! 只用簡(jiǎn)單的英語
    的頭像 發(fā)表于 06-20 11:51 ?974次閱讀
    <b class='flag-5'>GPT-4</b>已經(jīng)會(huì)自己設(shè)計(jì)芯片了嗎?

    OpenAI宣布GPT-4 API全面開放使用!

    OpenAI 在博客文章中寫道:“自 3 月份以來,數(shù)百萬開發(fā)者請(qǐng)求訪問 GPT-4 API,并且利用 GPT-4 的創(chuàng)新產(chǎn)品范圍每天都在增長(zhǎng)。” “我們?cè)O(shè)想基于對(duì)話的模型未來可以支持任何用例。”
    的頭像 發(fā)表于 07-12 14:55 ?1263次閱讀

    GPT-4沒有推理能力嗎?

    今年三月,OpenAI 重磅發(fā)布了 GPT-4 大模型,帶來了比 ChatGPT 背后 GPT-3.5 更強(qiáng)的推理、計(jì)算、邏輯能力,也引發(fā)了全民使用的熱潮。在各行各領(lǐng)域研究人員、開發(fā)者、設(shè)計(jì)師的使用過程中,「
    的頭像 發(fā)表于 08-11 14:20 ?897次閱讀
    <b class='flag-5'>GPT-4</b>沒有<b class='flag-5'>推理</b>能力嗎?

    ChatGPT plus有什么功能?OpenAI 發(fā)布 GPT-4 Turbo 目前我們所知道的功能

    OpenAI 發(fā)布 GPT-4 Turbo 目前我們所知道的功能分析解答 在最近的OpenAI DevDay上,該組織發(fā)布了一項(xiàng)備受期待的公告:推出GPT-4 Turbo,這是對(duì)其突破性AI模型
    的頭像 發(fā)表于 12-13 09:19 ?1143次閱讀
    ChatGPT plus有什么功能?OpenAI 發(fā)布 <b class='flag-5'>GPT-4</b> Turbo 目前我們所知道的功能

    全球最強(qiáng)大模型易主,GPT-4被超越

    近日,AI領(lǐng)域的領(lǐng)軍企業(yè)Anthropic宣布推出全新的Claude 3系列模型,其中包括最強(qiáng)版Claude 3 Opus。據(jù)該公司稱,Claude 3系列在推理、數(shù)學(xué)、編碼、多語言理解和視覺方面全面超越了包括GPT-4在內(nèi)的所
    的頭像 發(fā)表于 03-05 09:58 ?661次閱讀
    主站蜘蛛池模板: 片免费观看在线看| 成人在线黄色| 日本护士69xx00| 一二三四日本视频社区| 男女爱爱爽爽福利免费视频| 五月天狠狠| 亚洲一区区| 日产乱码免费一卡二卡在线| 91寡妇天天综合久久影院| 97人人做人人添人人爱| 亚洲成a人在线播放www| 国产精品视频第一区二区三区| 免费看又爽又黄禁片视频1000 | 婷婷六月在线| ww欧洲ww在线视频免费观看| 免费一日本一级裸片在线观看| 亚洲小younv另类| 中文字幕一二三区| 又黄又视频| 国产日本三级在线播放线观看| 国产精品福利午夜在线观看| 中文天堂在线最新版在线www| 激情午夜婷婷| 国产理论在线观看| 无遮挡很爽很污很黄在线网站| αv天堂| kkk4444免费观看| 欧美日韩中文字幕| 一级特黄a视频| 欧美不卡视频| 久久精品国产亚洲综合色| 福利视频免费看| 婷婷综合影院| 天天在线看片| 综合99| 69成人免费视频| 色视频网站免费| 日韩精品另类天天更新影院| 色综合免费视频| 亚洲va久久久久综合| 伊人色综合久久天天爱|