在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI做數(shù)學(xué)的能力不及高中生水平?

jmiy_worldofai ? 來(lái)源:lp ? 2019-04-09 11:22 ? 次閱讀

被數(shù)學(xué)題難倒的AI

做數(shù)學(xué)題一直令多數(shù)人頭疼不已的事情。近期,DeepMind團(tuán)隊(duì)最新研究了利用AI來(lái)解數(shù)學(xué)題,但結(jié)果令人大跌眼鏡——水平不及高中生。

數(shù)學(xué)也難倒了AI。

數(shù)學(xué)可能是大多數(shù)人在求學(xué)過(guò)程中最頭疼的一門(mén)科目。近日,DeepMind團(tuán)隊(duì)便對(duì)“AI做數(shù)學(xué)題”進(jìn)行了研究,結(jié)果大跌眼鏡:“萬(wàn)能的AI”在面對(duì)數(shù)學(xué)問(wèn)題也是不知所措!

人類(lèi)解題能力超群的關(guān)鍵在于,人類(lèi)并非主要通過(guò)經(jīng)驗(yàn)和證據(jù),而是通過(guò)推斷、學(xué)習(xí),以及利用定理、公理和符號(hào)操縱規(guī)則。

DeepMind團(tuán)隊(duì)便對(duì)神經(jīng)架構(gòu)和類(lèi)似系統(tǒng)的評(píng)估(以及最終的設(shè)計(jì))提出了新的挑戰(zhàn),開(kāi)發(fā)了一個(gè)數(shù)學(xué)問(wèn)題的任務(wù)處理套件,涉及以自由形式文本輸入/輸出格式的系列問(wèn)題和答案。

不過(guò),在研究過(guò)程中,DeepMind發(fā)現(xiàn),AI非常擅長(zhǎng)做的數(shù)學(xué)題都是比較偏簡(jiǎn)單的,例如:查找數(shù)字中的位值、四舍五入小數(shù)/整數(shù)等。但是在諸如素?cái)?shù)檢測(cè)、因式分解以及多項(xiàng)式操作等方面,性能結(jié)果存在顯著的差異。

AI做數(shù)學(xué)的能力不及高中生水平?

AI挑戰(zhàn)人類(lèi)最難學(xué)科

深層模型遠(yuǎn)未達(dá)到人類(lèi)所表現(xiàn)出的穩(wěn)健性和靈活性,由于自身能力的限制,深度學(xué)習(xí)無(wú)法超越所經(jīng)歷的環(huán)境去生成新的東西,并且面對(duì)存在對(duì)抗性構(gòu)建的輸入時(shí)極其脆弱。

與神經(jīng)模型相比,人類(lèi)智能擅長(zhǎng)的一個(gè)領(lǐng)域是關(guān)于物體和實(shí)體的離散組合推理,即“代數(shù)泛化”,這個(gè)領(lǐng)域也體現(xiàn)了神經(jīng)模型和人類(lèi)智之間的差異。

人類(lèi)在這個(gè)領(lǐng)域內(nèi)的概括能力是復(fù)雜的、多方面的。先來(lái)看這個(gè)數(shù)學(xué)題:

當(dāng):f(x)= 2x + 3,g(x)= 7x-4,h(x)= -5x-8時(shí)

求:g(h(f(x)))

人類(lèi)解決這道數(shù)學(xué)題時(shí)候,用到的各種認(rèn)知技能有:

將字符解析為數(shù)字,算術(shù)運(yùn)算符,變量(一起形成函數(shù))和單詞(確定問(wèn)題)等實(shí)體

計(jì)劃(例如,以正確的順序識(shí)別功能以進(jìn)行撰寫(xiě))

使用子算法進(jìn)行函數(shù)合成(加法,乘法)

利用工作記憶來(lái)存儲(chǔ)中間值(例如合成h(f(x)))

通常應(yīng)用已獲得的規(guī)則,轉(zhuǎn)換,過(guò)程和公理知識(shí)

DeepMind在這篇論文中引入了一個(gè)由許多不同類(lèi)型的數(shù)學(xué)問(wèn)題組成的數(shù)據(jù)集,對(duì)于模型來(lái)說(shuō),優(yōu)于缺乏上述人類(lèi)能力,在處理跨系列的問(wèn)題類(lèi)型(包括我們?cè)谙旅嬖斒龅姆夯┑臅r(shí)候難度更大,更難獲得良好的表現(xiàn)。

該領(lǐng)域?qū)τ谝话愕纳窠?jīng)結(jié)構(gòu)的分析是重要的。除了提供廣泛的問(wèn)題外,還有其他幾個(gè)優(yōu)點(diǎn):

數(shù)學(xué)提供了一個(gè)自洽的宇宙(self-consistent universe);

符號(hào)在不同的問(wèn)題類(lèi)型中是相同的,是的數(shù)據(jù)集更容易得到擴(kuò)展的;

在一種問(wèn)題類(lèi)型上學(xué)習(xí)的規(guī)則和方法通常適用于其他地方。例如數(shù)字的加法在任何地方都遵循相同的規(guī)則,并且在其他問(wèn)題中作為“子程序”出現(xiàn),具體體現(xiàn)在乘法中,以及具體且更抽閑的體現(xiàn)在多項(xiàng)式中;

具有轉(zhuǎn)移知識(shí)能力的模型將在數(shù)據(jù)集上獲得更好的表現(xiàn)(知識(shí)遷移可能是解決更難問(wèn)題的必要條件)。

數(shù)學(xué)本身也是一個(gè)有趣的領(lǐng)域,雖然解決該數(shù)據(jù)集中大多數(shù)中學(xué)數(shù)學(xué)問(wèn)題的模型本身不具備應(yīng)用程序,但它們可能會(huì)導(dǎo)致更強(qiáng)大的模型,這些模型可以解決有趣且實(shí)質(zhì)性的新數(shù)學(xué)問(wèn)題。

或者更一般地說(shuō),尋求驗(yàn)證以捕獲算法/系統(tǒng)推理為目標(biāo)的新架構(gòu)的實(shí)驗(yàn)經(jīng)常從這個(gè)領(lǐng)域中得出,這并非巧合。因此,在為這些模型提供大規(guī)模的訓(xùn)練和評(píng)估框架時(shí),希望為繼續(xù)研究超越數(shù)學(xué)的機(jī)器推理提供堅(jiān)實(shí)的基礎(chǔ)。

請(qǐng)看以下數(shù)學(xué)問(wèn)題集示例:

問(wèn)題:對(duì)于r,求解-42*r+27*c=-1167和130*r+4*c=372。

答案:4

問(wèn)題:計(jì)算-841880142.544+411127。

答案:-841469015.544

問(wèn)題:Letx(g)=9*g+1。Letq(C)=2*C+1。Letf(i)=3*i-39.設(shè)w(j)=q(x(j))。計(jì)算f(w(a))。

答案:54*a-30

問(wèn)題:設(shè)e(l)=l-6.2是e(9)和2的因子嗎?

答案:錯(cuò)

問(wèn)題:設(shè)u(n)=-n**3-n**2。設(shè)e(c)=-2*c**3+c。令l(j)=-118*e(j)+54*u(j)。l(a)的衍生物是什么?

答案:546*a**2-108*a-118

問(wèn)題:從qqqkkklkqkkk中選擇了三個(gè)字母而沒(méi)有替換。給出序列qql的概率

答案:1/110

研究中的主要貢獻(xiàn)

數(shù)據(jù)集和泛化測(cè)試

研究人員發(fā)布1個(gè)序列到序列的數(shù)據(jù)集,包括許多不同類(lèi)型的數(shù)學(xué)問(wèn)題(見(jiàn)圖1),用于測(cè)量數(shù)學(xué)推理,同時(shí)提供生成代碼和預(yù)生成的問(wèn)題。

數(shù)據(jù)集附帶兩組測(cè)試:插值測(cè)試,一個(gè)針對(duì)訓(xùn)練集中出現(xiàn)的每種類(lèi)型的問(wèn)題;外推測(cè)試,測(cè)量沿著各種難度軸的概括超出訓(xùn)練期間的概括。將外推測(cè)試作為模型是否采用允許它們進(jìn)行代數(shù)泛化的能力的額外度量。

實(shí)驗(yàn)和模型分析

本文利用一個(gè)實(shí)驗(yàn)評(píng)估來(lái)研究最先進(jìn)的神經(jīng)架構(gòu)的代數(shù)能力,實(shí)驗(yàn)表明它們?cè)谀承╊?lèi)型的問(wèn)題上表現(xiàn)良好,但肯定不是全部,而且只有適度的數(shù)量一般化。我們對(duì)他們?nèi)绾螌W(xué)習(xí)回答數(shù)學(xué)問(wèn)題及其失敗模式提供了一些見(jiàn)解。

由于該數(shù)據(jù)集背后的構(gòu)建過(guò)程,有大量現(xiàn)有模型可以進(jìn)行調(diào)整、專(zhuān)門(mén)構(gòu)建或定制,以解決提出的問(wèn)題,特別是在符號(hào)求解器或計(jì)算機(jī)代數(shù)系統(tǒng)的幫助下。

模型檢驗(yàn)

隨著問(wèn)題和答案的復(fù)雜性或語(yǔ)言多樣性的增長(zhǎng),撇開(kāi)傳統(tǒng)符號(hào)方法可能的脆弱性或可擴(kuò)展性的限制,我們對(duì)評(píng)估通用模型更感興趣,而非已經(jīng)內(nèi)置數(shù)學(xué)知識(shí)的模型。

使這些模型(總是神經(jīng)架構(gòu))從翻譯到通過(guò)圖像字幕解析無(wú)處不在的原因,是這些函數(shù)逼近器缺乏偏差,因?yàn)樗鼈兊脑O(shè)計(jì)中編碼的域特定知識(shí)相對(duì)較少(或沒(méi)有)。

雖然有一些神經(jīng)網(wǎng)絡(luò)驅(qū)動(dòng)的方法可以直接訪問(wèn)數(shù)學(xué)運(yùn)算(例如加法或乘法,或更復(fù)雜的數(shù)學(xué)模板,這無(wú)疑是我們?cè)诒疚闹刑岢龅娜蝿?wù)中具有競(jìng)爭(zhēng)力,我們將局限于一般的序列處理架構(gòu),這些架構(gòu)用于其他非數(shù)學(xué)任務(wù),以便為將來(lái)的比較提供最一般的基準(zhǔn)。

論文研究了兩種(廣泛的)模型,這些模型已經(jīng)證明了它們?cè)谛蛄械叫蛄袉?wèn)題上的最新技術(shù):循環(huán)神經(jīng)架構(gòu),以及最近引入的Attention/Transfomer結(jié)構(gòu)。 我們還嘗試使用可微分神經(jīng)計(jì)算機(jī),這是一種具有“外部存儲(chǔ)器”的復(fù)現(xiàn)模型(其大小與網(wǎng)絡(luò)中的參數(shù)數(shù)量無(wú)關(guān))。

理論上,這可能非常適合解決數(shù)學(xué)問(wèn)題,因?yàn)樗梢源鎯?chǔ)中間值以供以后使用。然而,卻無(wú)法從中獲得不錯(cuò)的表現(xiàn),即使對(duì)于內(nèi)存插槽的數(shù)量和大小的超參數(shù)掃描等,在訓(xùn)練一天后才能達(dá)到10%的驗(yàn)證性能,而大多數(shù)模型在不到一個(gè)小時(shí)內(nèi)就能獲得這一點(diǎn)。

圖2:注意力LSTM和Transformer體系結(jié)構(gòu)都包含一個(gè)解析問(wèn)題的編碼器和一個(gè)解碼器,它將正確的答案右移1個(gè)映射到每個(gè)位置的答案中的下一個(gè)字符(因此允許自回歸預(yù)測(cè)):

(a)注意LSTM將問(wèn)題編碼為一系列(關(guān)鍵,值)位置,然后由解碼器進(jìn)行處理

(b)變壓器有幾個(gè)階段的自我注意和輸入注意

循環(huán)結(jié)構(gòu)

LSTM 是一個(gè)強(qiáng)大的序列到序列模型構(gòu)建模塊,它在許多領(lǐng)域都達(dá)到了最先進(jìn)的結(jié)果,盡管它很簡(jiǎn)單,但仍然是循環(huán)神經(jīng)網(wǎng)絡(luò)的一個(gè)核心構(gòu)建模塊。本文測(cè)試了兩個(gè)標(biāo)準(zhǔn)的循環(huán)結(jié)構(gòu)。

第一個(gè)(也是最簡(jiǎn)單)模型,稱(chēng)作“Simple LSTM”是直接將問(wèn)題提交到LSTM,一次輸入一個(gè)字符(采用1-hot編碼);

第二個(gè)模型稱(chēng)作“Attentionnal LSTM”,是引入具有注意力結(jié)構(gòu)的編碼器/解碼器。

在這兩種體系結(jié)構(gòu)中,還使用了一個(gè)簡(jiǎn)單的更改來(lái)提高性能。所描述的模型必須在解析問(wèn)題之后直接輸出答案。

近期,一種稱(chēng)為關(guān)系遞歸神經(jīng)網(wǎng)絡(luò)或關(guān)系內(nèi)存核(relational memory core,RMC)的遞歸體系結(jié)構(gòu)被開(kāi)發(fā)出來(lái)作為L(zhǎng)STM的替代品。這個(gè)重復(fù)單元有多個(gè)記憶槽,它們通過(guò)注意力相互作用。

TRANSFORMER

Transformer模型是一個(gè)實(shí)現(xiàn)機(jī)器翻譯的最先進(jìn)結(jié)果的序列到序列模型。圖2b對(duì)其做了簡(jiǎn)要的描述。該模型由編碼器和解碼器組成,前者將問(wèn)題(表示為向量序列)轉(zhuǎn)換為另一個(gè)相同長(zhǎng)度的序列,后者將編碼的問(wèn)題和答案轉(zhuǎn)換為答案預(yù)測(cè)。

性能分析

訓(xùn)練和評(píng)估方法

與序列到序列模型中常見(jiàn)的方法一樣,這些模型使用貪婪解碼器(每一步輸出多數(shù)類(lèi))自回歸地預(yù)測(cè)答案。通過(guò)Adam優(yōu)化器最小化正確字符的對(duì)數(shù)概率之和,學(xué)習(xí)率為6×10-4,β1= 0.9,β2= 0.995,ε= 10-9。 使用批量大小為1024的8個(gè)NVIDIA P100 GPU進(jìn)行500k批次分割,絕對(duì)梯度值限幅為0.1。

實(shí)驗(yàn)結(jié)果

圖3顯示了不同結(jié)構(gòu)的平均插值和外推(extrapolation)性能。

圖3模型精度(正確答案的概率)在各個(gè)模塊之間取平均值。RMC是關(guān)系遞歸神經(jīng)網(wǎng)絡(luò)模型。

LSTMs vs RMCs

使用具有多個(gè)內(nèi)存插槽的RMC不會(huì)提高性能;也許RMC很難學(xué)會(huì)使用插槽來(lái)操縱數(shù)學(xué)實(shí)體。對(duì)于給定數(shù)量的隱含單元,RMC的數(shù)據(jù)效率更高,但訓(xùn)練速度更慢(因?yàn)樗鼈冇懈嗟膮?shù)),LSTMs具有更好的漸近性能。

Simple vs Attentional LSTM

Attentional LSTM和Simple LSTM具有相似的性能。有人可能會(huì)懷疑Attentional LSTM什么也不做,但事實(shí)并非如此,因?yàn)榕c解析LSTM大小相同的Simple LSTM模型獲得的性能要差得多。我們推測(cè),注意力模型并沒(méi)有學(xué)習(xí)算法解析問(wèn)題,因此每一步改變注意力焦點(diǎn)的能力并不重要。

“思考”步驟數(shù)

對(duì)于Attentional LSTM模型,可以觀察到,將“思考”步驟的數(shù)量從0增加到16,可以提高性能。

Transformer vs 最好的非transformer模型

Transformer在幾乎所有模塊上的性能與遞歸模型相同,或者明顯優(yōu)于遞歸模型。這兩種體系結(jié)構(gòu)具有相當(dāng)數(shù)量的參數(shù)。人們可能會(huì)預(yù)先期望LSTM執(zhí)行得更好,因?yàn)樗捻樞蝮w系結(jié)構(gòu)可能更類(lèi)似于人類(lèi)執(zhí)行的順序推理步驟。然而,實(shí)驗(yàn)表明,這兩種網(wǎng)絡(luò)都沒(méi)有做太多的“算法推理”,并且Transformer相對(duì)于LSTM架構(gòu)具有各種優(yōu)勢(shì),例如:

使用相同數(shù)量的參數(shù)進(jìn)行更多計(jì)算;

具有更好的梯度傳播;

有一個(gè)內(nèi)部連續(xù)的“記憶”。

對(duì)神經(jīng)網(wǎng)絡(luò)來(lái)說(shuō)最簡(jiǎn)單的數(shù)學(xué)問(wèn)題

最簡(jiǎn)單的問(wèn)題類(lèi)型是查找數(shù)字中的位值,以及四舍五入小數(shù)和整數(shù),所有模型在這些方面都獲得了近乎完美的分?jǐn)?shù)。涉及比較的問(wèn)題也往往相當(dāng)容易,因?yàn)檫@類(lèi)任務(wù)是相當(dāng)感性的(例如比較長(zhǎng)度或單個(gè)數(shù)字)。

對(duì)神經(jīng)網(wǎng)絡(luò)來(lái)說(shuō)最困難的數(shù)學(xué)問(wèn)題

也許并不奇怪,一些最難的模塊包含了更多的數(shù)字理論問(wèn)題,這些問(wèn)題對(duì)人類(lèi)來(lái)說(shuō)也很難,比如檢測(cè)素?cái)?shù)和因式分解。

Transformer模型在“加或減幾個(gè)數(shù)字”模塊和“乘數(shù)或除數(shù)”模塊的性能為90%或更高。然而,在混合算術(shù)模塊上,性能下降到大約50%。我們推測(cè)這些模塊之間的區(qū)別在于前者可以在相對(duì)線性/淺/平行的方式(因此解決方法通過(guò)梯度下降相對(duì)容易發(fā)現(xiàn)),而沒(méi)有用括號(hào)評(píng)估混合算術(shù)表達(dá)式的快捷方式,其中需要計(jì)算中間值。

這證明模型沒(méi)有學(xué)習(xí)任何代數(shù)/算法操作值,而是學(xué)習(xí)相對(duì)簡(jiǎn)單的技巧來(lái)獲得許多模塊的良好答案。對(duì)于其他需要中間值計(jì)算的模塊,如多項(xiàng)式求值和一般組合,也是如此。

多項(xiàng)式操縱性能

Transformer和遞歸模型之間的一個(gè)顯著差異是多項(xiàng)式操作。Transformer在多項(xiàng)式展開(kāi)、收集項(xiàng)、加法、組合、微分和提取命名系數(shù)方面做得明顯更好。從理論上說(shuō),Transformer的并行順序特性更擅長(zhǎng)于處理多項(xiàng)式,其中幾個(gè)系數(shù)必須同時(shí)保存在內(nèi)存中,以便相互作用。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31291

    瀏覽量

    269644
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1208

    瀏覽量

    24749
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5510

    瀏覽量

    121340

原文標(biāo)題:戰(zhàn)勝柯潔戰(zhàn)勝不了高中生?DeepMind挑戰(zhàn)高中數(shù)學(xué)題,完敗

文章出處:【微信號(hào):worldofai,微信公眾號(hào):worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    2014年托福考試面臨著怎么樣的巨大變革?

    越來(lái)越側(cè)重于提高學(xué)生能力,而非考試題型與技巧講解。普通高中生的英語(yǔ)水平需要在半年至一年內(nèi)提升到托福考試的水平上才達(dá)到美國(guó)大學(xué)錄取的托福分?jǐn)?shù)線,這并非是一件容易的事情。而對(duì)于這一類(lèi)人群的
    發(fā)表于 02-20 03:24

    本人高中生一枚,喜愛(ài)電子技術(shù)。

    新人報(bào)道。本人高中生一枚,喜愛(ài)電子技術(shù)。來(lái)此學(xué)校與交流。請(qǐng)多關(guān)照。
    發(fā)表于 01-08 09:47

    【曬出你的第83行代碼】躊躇滿(mǎn)志的三位高中生,以敬畏之心踏上了代碼征程

    摘要: 在五四青年節(jié)之際,社區(qū)發(fā)起了來(lái)曬曬屬于你的“第83行”的活動(dòng),活動(dòng)中邀請(qǐng)業(yè)界的大牛、大神們來(lái)曬代碼或者Review代碼!本輪我們曬一曬那些高中生的第83行代碼。最近社區(qū)有個(gè)很火的《向代碼致敬
    發(fā)表于 05-09 17:28

    高中生牛人:制作全硬件純正弦逆變器

    本內(nèi)容是以為高中生純手工打造的全硬件純正弦逆變器,令人驚嘆
    發(fā)表于 06-12 11:25 ?2.1w次閱讀
    <b class='flag-5'>高中生</b>牛人:制作全硬件純正弦逆變器

    17歲高中生在OpenAI發(fā)論文研究AI關(guān)鍵問(wèn)題

    。Schulman在信任地區(qū)政策優(yōu)化問(wèn)題上一直停滯不前,但是在看過(guò)Frans的博客之后,得到了一個(gè)驚喜。他說(shuō):“我沒(méi)有料到能會(huì)收到一個(gè)高中生的這些郵件。”Frans后來(lái)在OpenAI公司面試時(shí)遇到
    發(fā)表于 03-19 05:02 ?841次閱讀

    AI普及從娃娃抓起商湯為中國(guó)人工智能基礎(chǔ)教育搶了先手

    國(guó)內(nèi)中等教育體系首次引入AI教材,意味著人工智能教育在中國(guó)正式邁入基礎(chǔ)教育階段。由此人工智能這一當(dāng)今最前沿的高新技術(shù)將走出“象牙塔”,成為每一個(gè)在校高中生都可以掌握的基本技能。按圖索驥,讓高中生率先學(xué)上人工智能,應(yīng)該就是秋季入學(xué)
    的頭像 發(fā)表于 05-25 17:00 ?4738次閱讀

    我國(guó)出版了第一本人工智能教材,AI高中學(xué)起

    計(jì)算機(jī)要從娃娃抓起,AI可以從高中學(xué)起。近日我國(guó)為高中生出版了第一本人工智能(AI)教材——《人工智能基礎(chǔ)(高中版)》,寄希望于年輕的一代來(lái)
    的頭像 發(fā)表于 07-18 18:47 ?4183次閱讀

    美國(guó)高中生兩年時(shí)間搭建自動(dòng)駕駛汽車(chē)

    這個(gè)美國(guó)高中生用兩年時(shí)間復(fù)現(xiàn)出英偉達(dá)端到端無(wú)人駕駛的論文,并在此基礎(chǔ)上進(jìn)一步改進(jìn),得到了Nvidia的offer,卻執(zhí)意進(jìn)入大學(xué)學(xué)習(xí)。
    的頭像 發(fā)表于 01-05 09:02 ?3190次閱讀

    AI很聰明?有時(shí)候計(jì)算加法的水平還不如高中生

    AI很聰明?有時(shí)計(jì)算加法的水平還不如高中生對(duì)這個(gè)系統(tǒng)來(lái)說(shuō),最難的問(wèn)題是“數(shù)字理論問(wèn)題”,比如因式分解,把數(shù)字或其他數(shù)學(xué)對(duì)象分解成組成部分,以及判斷一個(gè)數(shù)字是否是質(zhì)數(shù)。但他們指出,人類(lèi)在
    發(fā)表于 07-05 16:58 ?848次閱讀

    谷歌人工智能DeepMind,參加高中數(shù)學(xué)考試不及

    谷歌人工智能DeepMind,高中數(shù)學(xué)考了個(gè)不及格,研究人員使用數(shù)學(xué)問(wèn)題給DeepMind測(cè)試了兩個(gè)LSTM(長(zhǎng)短期記憶)模型。據(jù)報(bào)道,這些題目基于英國(guó)國(guó)立學(xué)校數(shù)學(xué)課程(面向16歲及以
    發(fā)表于 07-05 11:56 ?500次閱讀

    專(zhuān)為高中生打造的人工智能教材今年出版

    為推動(dòng)完善人工智能教育體系,清華大學(xué)交叉信息研究院在圖靈獎(jiǎng)得主、院長(zhǎng)姚期智院士的帶領(lǐng)下,在計(jì)算機(jī)科學(xué)實(shí)驗(yàn)班(姚班)多年來(lái)人才培養(yǎng)與教育教學(xué)的基礎(chǔ)上,編寫(xiě)面向高中生的《人工智能(高中版)》教材,并將由清華大學(xué)出版社于2020年9月正式出版發(fā)行。
    的頭像 發(fā)表于 01-08 14:45 ?2471次閱讀

    16歲高中生為一臺(tái)無(wú)法正常使用的iPhone 7成功移植了Ubuntu 20.04

    為 Daniel Rodriguez,是一名在校高中生。據(jù) Daniel 介紹,他使用的 iPhone7 來(lái)自他的外婆,這臺(tái)手機(jī)的屏幕、電源等硬件設(shè)備基本上保存完好,但由于 NVMe NAND 已經(jīng)完全無(wú)法訪問(wèn),這
    的頭像 發(fā)表于 02-02 14:35 ?1673次閱讀

    詞典筆高中生可以用嗎?訊飛掃描詞典筆能滿(mǎn)足全學(xué)齡段的查詞需求

    對(duì)于很多高中生來(lái)說(shuō),英語(yǔ)一直是他們學(xué)習(xí)路上一道難關(guān)。高中英語(yǔ)涉及詞匯范圍廣,有3500多個(gè),學(xué)生們經(jīng)常是舊的還沒(méi)有背會(huì),新的就已經(jīng)來(lái)了。長(zhǎng)此以往,他們?cè)谧鲱}的時(shí)候難免會(huì)感到乏力。為了解決這個(gè)
    發(fā)表于 07-06 14:39 ?1719次閱讀

    記筆記!如何學(xué)單片機(jī)技術(shù)

    C語(yǔ)言知識(shí)并不難,沒(méi)有任何編程基礎(chǔ)的人都可以學(xué),在我看來(lái),初中生高中生、中專(zhuān)生、大學(xué)生都能學(xué)會(huì)。當(dāng)然,數(shù)學(xué)基礎(chǔ)好、邏輯思維好的人學(xué)起來(lái)相對(duì)輕松一些。
    發(fā)表于 12-08 10:24 ?564次閱讀

    創(chuàng)新力量,改變世界!億圖腦圖助力高中生閃耀世界機(jī)器人大賽

    MindMaster并從中受益的中國(guó)高中生機(jī)器人團(tuán)隊(duì),他們是億圖腦圖的忠實(shí)用戶(hù),也是勇敢追夢(mèng)者。 在世界機(jī)器人科技挑戰(zhàn)賽(FIRST?Tech?Challenge)這個(gè)世界舞臺(tái)上,他們歷經(jīng)波折、一路過(guò)關(guān)斬將,最終獲得了全球總決賽亞軍的好成績(jī),為國(guó)爭(zhēng)光! 在這
    的頭像 發(fā)表于 06-26 16:30 ?543次閱讀
    創(chuàng)新力量,改變世界!億圖腦圖助力<b class='flag-5'>高中生</b>閃耀世界機(jī)器人大賽
    主站蜘蛛池模板: 最近观看免费高清视频| 日本www色视频| 免费理论片在线观看播放| 狠狠躁夜夜躁人人爽天天天天 | 激情免费视频| 日本午夜视频| 性生大片一级毛片免费观看| 免费视频精品| 人人做人人爽人人爱| 日本久久久久久久| 日韩乱轮| 日本三级三级三级免费看| 欧美色综合久久| 欧美午夜色大片在线观看免费| 免费爱爱网| 免费在线播放黄色| 韩国电影天堂| 黄欧美| free性欧美高清另类| 国产精品美女在线| 黄色大片视频| 爱逼综合| 又粗又硬又猛又黄的免费视频黑人| 黄色福利网| aa毛片| 越南黄色录像| 免费jlzzjlzz在线播放视频| 欧美性猛交xxxx免费| h国产在线| 亚洲一区二区三区影院| 123成人网| 一区二区三区亚洲| 亚洲先锋资源| 午夜日韩在线| 色网站欧美| 色婷婷在线视频| 精品欧美小视频在线观看| 国产特级毛片| www.xxx日本人| 久久天天丁香婷婷中文字幕| 69国产成人精品午夜福中文|