在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

訓(xùn)練神經(jīng)網(wǎng)絡(luò)的實(shí)踐技巧總結(jié)

電子工程師 ? 來(lái)源:未知 ? 作者:胡薇 ? 2018-09-24 09:14 ? 次閱讀

在經(jīng)歷成千上萬(wàn)個(gè)小時(shí)機(jī)器學(xué)習(xí)訓(xùn)練時(shí)間后,計(jì)算機(jī)并不是唯一學(xué)到很多東西的角色,作為開(kāi)發(fā)者和訓(xùn)練者的我們也犯了很多錯(cuò)誤,修復(fù)了許多錯(cuò)誤,從而積累了很多經(jīng)驗(yàn)。在本文中,作者基于自己的經(jīng)驗(yàn)(主要基于 TensorFlow)提出了一些訓(xùn)練神經(jīng)網(wǎng)絡(luò)的建議,還結(jié)合了案例,可以說(shuō)是過(guò)來(lái)人的實(shí)踐技巧了。

通用技巧

有些技巧對(duì)你來(lái)說(shuō)可能就是明擺著的事,但在某些時(shí)候可能卻并非如此,也可能存在不適用的情況,甚至對(duì)你的特定任務(wù)來(lái)說(shuō),可能不是一個(gè)好的技巧,所以使用時(shí)需要?jiǎng)?wù)必要謹(jǐn)慎!

▌使用 ADAM 優(yōu)化器

確實(shí)很有效。與更傳統(tǒng)的優(yōu)化器相比,如 Vanilla 梯度下降法,我們更喜歡用ADAM優(yōu)化器。用 TensorFlow 時(shí)要注意:如果保存和恢復(fù)模型權(quán)重,請(qǐng)記住在設(shè)置完AdamOptimizer 后設(shè)置 Saver,因?yàn)?ADAM 也有需要恢復(fù)的狀態(tài)(即每個(gè)權(quán)重的學(xué)習(xí)率)。

▌ReLU 是最好的非線性(激活函數(shù))

就好比 Sublime 是最好的文本編輯器一樣。ReLU 快速、簡(jiǎn)單,而且,令人驚訝的是,它們工作時(shí),不會(huì)發(fā)生梯度遞減的情況。雖然 sigmoid 是常見(jiàn)的激活函數(shù)之一,但它并不能很好地在 DNN 進(jìn)行傳播梯度。

▌不要在輸出層使用激活函數(shù)

這應(yīng)該是顯而易見(jiàn)的道理,但如果使用共享函數(shù)構(gòu)建每個(gè)層,那就很容易犯這樣的錯(cuò)誤:所以請(qǐng)確保在輸出層不要使用激活函數(shù)。

▌?wù)堅(jiān)诿恳粋€(gè)層添加一個(gè)偏差

這是 ML 的入門(mén)知識(shí)了:偏差本質(zhì)上就是將平面轉(zhuǎn)換到最佳擬合位置。在 y=mx+b 中,b 是偏差,允許曲線上下移動(dòng)到“最佳擬合”位置。

▌使用方差縮放(variance-scaled)初始化

在 Tensorflow 中,這看起來(lái)像tf.reemaner.variance_scaling_initializer()。根據(jù)我們的經(jīng)驗(yàn),這比常規(guī)的高斯函數(shù)、截尾正態(tài)分布(truncated normal)和 Xavier 能更好地泛化/縮放。

粗略地說(shuō),方差縮放初始化器根據(jù)每層的輸入或輸出數(shù)量(TensorFlow中的默認(rèn)值是輸入數(shù)量)調(diào)整初始隨機(jī)權(quán)重的方差,從而有助于信號(hào)更深入地傳播到網(wǎng)絡(luò)中,而無(wú)須額外的裁剪或批量歸一化(batch normalization)。Xavier 與此相似,只是各層的方差幾乎相同;但是不同層形狀變化很大的網(wǎng)絡(luò)(在卷積網(wǎng)絡(luò)中很常見(jiàn))可能不能很好地處理每層中的相同方差。

▌歸一化輸入數(shù)據(jù)

對(duì)于訓(xùn)練,減去數(shù)據(jù)集的均值,然后除以它的標(biāo)準(zhǔn)差。在每個(gè)方向的權(quán)重越少,你的網(wǎng)絡(luò)就越容易學(xué)習(xí)。保持輸入數(shù)據(jù)以均值為中心且方差恒定有助于實(shí)現(xiàn)這一點(diǎn)。你還必須對(duì)每個(gè)測(cè)試輸入執(zhí)行相同的規(guī)范化,因此請(qǐng)確保你的訓(xùn)練集與真實(shí)數(shù)據(jù)相似。

以合理保留其動(dòng)態(tài)范圍的方式縮放輸入數(shù)據(jù)。這與歸一化有關(guān),但應(yīng)該在歸一化之前就進(jìn)行。例如,真實(shí)世界范圍為 [0,140000000] 的數(shù)據(jù) x 通常可以用 tanh(x) 或 tanh(x/C) 來(lái)控制,其中 C 是一些常數(shù),它可以拉伸曲線,以適應(yīng) tanh 函數(shù)緩坡部分的動(dòng)態(tài)范圍內(nèi)的更多輸入范圍。特別是在輸入數(shù)據(jù)在一端或兩端可能不受限制的情況下,神經(jīng)網(wǎng)絡(luò)將在(0,1)之間學(xué)習(xí)得更好。

▌一般不用學(xué)習(xí)率衰減

學(xué)習(xí)率衰減在 SGD 中更為常見(jiàn),但 ADAM 很自然地處理了這個(gè)問(wèn)題。如果你真的想把每一分表現(xiàn)都擠出去:在訓(xùn)練結(jié)束時(shí)短時(shí)間內(nèi)降低學(xué)習(xí)率;你可能會(huì)看到突然的、非常小的誤差下降,然后它會(huì)再次變平。

如果你的卷積層有 64 或 128 個(gè)過(guò)濾器,那就足夠了。特別是一個(gè)對(duì)于深度網(wǎng)絡(luò)而言。比如,128 個(gè)真的就已經(jīng)很多了。如果你已經(jīng)有了大量的過(guò)濾器,那么再添加更多的過(guò)濾器未必會(huì)進(jìn)一步提高性能。

▌池化用于平移不變性

池化本質(zhì)上就是讓網(wǎng)絡(luò)學(xué)習(xí)圖像“那部分”的“總體思路”。例如,最大池化可以幫助卷積網(wǎng)絡(luò)對(duì)圖像中的特征的平移、旋轉(zhuǎn)和縮放變得更加健壯。

調(diào)試神經(jīng)網(wǎng)絡(luò)

如果你的網(wǎng)絡(luò)沒(méi)能很好地進(jìn)行學(xué)習(xí)(指在訓(xùn)練過(guò)程中損失/準(zhǔn)確率沒(méi)有收斂,或者沒(méi)有得到預(yù)期的結(jié)果),那么可以試試以下的技巧:

▌過(guò)擬合

如果你的網(wǎng)絡(luò)沒(méi)有學(xué)習(xí),那么首先要做的第一件事就是對(duì)訓(xùn)練點(diǎn)進(jìn)行過(guò)擬合。準(zhǔn)確率基本上應(yīng)為 100% 或 99.99%,或誤差接近 0。如果你的神經(jīng)網(wǎng)絡(luò)不能對(duì)單個(gè)數(shù)據(jù)點(diǎn)進(jìn)行過(guò)擬合,那么體系架構(gòu)就可能有嚴(yán)重的問(wèn)題,但這可能是微妙的。如果你可以對(duì)一個(gè)數(shù)據(jù)點(diǎn)進(jìn)行過(guò)擬合,但是對(duì)較大的集合進(jìn)行訓(xùn)練仍然無(wú)法收斂,請(qǐng)嘗試以下建議:

▌降低學(xué)習(xí)率

你的網(wǎng)絡(luò)學(xué)習(xí)就會(huì)變得更慢一些,但是它可能會(huì)找到以前無(wú)法進(jìn)入的最小化的方式,因?yàn)樗牟介L(zhǎng)太大了。

▌提高學(xué)習(xí)率

這樣做將會(huì)加快訓(xùn)練,有助于收緊反饋,這意味著無(wú)論你的網(wǎng)絡(luò)是否正常工作,你都會(huì)很快地知道你的網(wǎng)絡(luò)是否有效。雖然網(wǎng)絡(luò)應(yīng)該更快地收斂,但其結(jié)果可能不會(huì)很好,而且“收斂”實(shí)際上可能會(huì)跳來(lái)跳去。(對(duì)于 ADAM 優(yōu)化器,我們發(fā)現(xiàn)在很多經(jīng)歷中,學(xué)習(xí)率大約為 0.001 時(shí),表現(xiàn)很不錯(cuò)。)

▌減少批量處理規(guī)模

將批處理大小減小到 1,可以為你提供與權(quán)重更新相關(guān)的更細(xì)粒度的反饋,你應(yīng)該使用TensorBoard(或其他一些調(diào)試/可視化工具)展示出來(lái)。

▌刪除批歸一化層

隨著批處理大小減少到 1,這樣做會(huì)暴露出梯度消失或梯度爆炸的問(wèn)題。我們?cè)羞^(guò)一個(gè)網(wǎng)絡(luò),在好幾周都沒(méi)有收斂,當(dāng)我們刪除了批歸一化層之后,我們才意識(shí)到第二次迭代時(shí)輸出都是 NaN。就像是創(chuàng)可貼上的吸水墊,它也有它可以發(fā)揮效果的地方,但前提是你知道網(wǎng)絡(luò)沒(méi)有 Bug。

▌增加批量處理的規(guī)模

一個(gè)更大的批處理規(guī)模,如果可以的話,整個(gè)訓(xùn)練集減少梯度更新中的方差,使每個(gè)迭代更準(zhǔn)確。換句話說(shuō),權(quán)重更新將朝著正確的方向發(fā)展。但是!它的可用性和物理內(nèi)存限制都有一個(gè)有效的上限。通常,我們發(fā)現(xiàn)這個(gè)建議不如上述兩個(gè)建議有用,可以將批處理規(guī)模減少到1并刪除批歸一化層。

▌檢查你的重構(gòu)

大幅度的矩陣重構(gòu)(如改變圖像的X、Y 維度)會(huì)破壞空間局部性,使網(wǎng)絡(luò)更難學(xué)習(xí),因?yàn)樗脖仨殞W(xué)會(huì)重塑。(自然特征變得支離破碎。事實(shí)上,自然特征在空間上呈局部性,也是為什么卷積神經(jīng)網(wǎng)絡(luò)能如此有效的原因!)如果使用多個(gè)圖像/通道進(jìn)行重塑,請(qǐng)?zhí)貏e小心;使用 numpi.stack()進(jìn)行適當(dāng)?shù)膶?duì)齊操作。

▌仔細(xì)檢查你的損失函數(shù)

如果使用一個(gè)復(fù)雜的函數(shù),請(qǐng)嘗試將其簡(jiǎn)化為 L1 或 L2。我們發(fā)現(xiàn)L1對(duì)異常值不那么敏感,在發(fā)出噪聲的批或訓(xùn)練點(diǎn)時(shí),不會(huì)做出太大的調(diào)整。

如果可以的話,仔細(xì)檢查你的可視化。你的可視化庫(kù)(matplotlib、OpenCV等)是調(diào)整值的比例呢,還是它們進(jìn)行裁剪?可考慮使用一種視覺(jué)上均勻的配色方案。

實(shí)戰(zhàn)分析

為了使上面所描述的過(guò)程更容易讓讀者理解,我們這兒有一些用于描述我們構(gòu)建的卷積神經(jīng)網(wǎng)絡(luò)的真實(shí)回歸實(shí)驗(yàn)的損失圖(通過(guò)TesnorBoard)。

起初,這個(gè)網(wǎng)絡(luò)根本沒(méi)有學(xué)習(xí):

我們?cè)噲D裁剪這些值,以防止它們超出界限:

嗯。看看不平滑的值有多瘋狂啊!學(xué)習(xí)率是不是太高了?我們?cè)囍谝粋€(gè)輸入數(shù)據(jù)上降低學(xué)習(xí)率并進(jìn)行訓(xùn)練:

你可以看到學(xué)習(xí)率的前幾個(gè)變化發(fā)生的位置(大約在 300 步和 3000 步)。顯然,我們衰減得太快了。所以,給它更多的衰減時(shí)間,它表現(xiàn)得會(huì)更好:

你可以看到我們?cè)?2000 步和 5000 步的時(shí)候衰減了。這樣更好一些了,但還不夠好,因?yàn)樗鼪](méi)有趨于 0。

然后我們禁用了 LR 衰減,并嘗試將值移動(dòng)到更窄的范圍內(nèi),而不是通過(guò) tanh 輸入。雖然這顯然使誤差值小于 1,但我們?nèi)匀徊荒軐?duì)訓(xùn)練集進(jìn)行過(guò)擬合:

這里我們發(fā)現(xiàn),通過(guò)刪除批歸一化層,網(wǎng)絡(luò)在一到兩次迭代之后迅速輸出 NaN。我們禁用了批歸一化,并將初始化更改為方差縮放。這些改變了一切!我們能夠?qū)χ挥幸粌蓚€(gè)輸入的測(cè)試集進(jìn)行過(guò)擬合了。當(dāng)?shù)撞康膱D標(biāo)裁剪Y軸時(shí),初始誤差值遠(yuǎn)高于 5,表明誤差減少了近 4 個(gè)數(shù)量級(jí):

上面的圖表是非常平滑的,但是你可以看到它非常快地?cái)M合了測(cè)試輸入,隨著時(shí)間的推移,整個(gè)訓(xùn)練集的損失降低到了 0.01 以下。這沒(méi)有降低學(xué)習(xí)速度。然后我們將學(xué)習(xí)速率降低一個(gè)數(shù)量級(jí)后繼續(xù)訓(xùn)練,得到更好的結(jié)果:

這些結(jié)果好得多了!但是,如果我們以幾何方式降低學(xué)習(xí)率,而不是將訓(xùn)練分成兩部分,會(huì)發(fā)生什么樣的結(jié)果呢?

通過(guò)在每一步將學(xué)習(xí)率乘以 0.9995,結(jié)果就不那么好了:

大概是因?yàn)閷W(xué)習(xí)率衰減太快了吧。乘數(shù)為 0.999995 會(huì)表現(xiàn)的更好,但結(jié)果幾乎相當(dāng)于完全沒(méi)有衰減。我們從這個(gè)特定的實(shí)驗(yàn)序列中得出結(jié)論,批歸一化隱藏了由槽糕的初始化引起的爆炸梯度,并且 ADAM 優(yōu)化器對(duì)學(xué)習(xí)率的衰減并沒(méi)有什么特別的幫助,與批歸一化一樣,裁剪值只是掩蓋了真正的問(wèn)題。我們還通過(guò) tanh 來(lái)控制高方差輸入值。

我們希望,本文提到的這些基本技巧能夠在你構(gòu)建深度神經(jīng)網(wǎng)絡(luò)時(shí)有所幫助。通常,正式因?yàn)楹?jiǎn)單的事情才改變了這一切。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4772

    瀏覽量

    100851
  • ADAM
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    9810

原文標(biāo)題:一位ML工程師構(gòu)建深度神經(jīng)網(wǎng)絡(luò)的實(shí)用技巧

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    人工神經(jīng)網(wǎng)絡(luò)原理及下載

    這個(gè)網(wǎng)絡(luò)輸入和相應(yīng)的輸出來(lái)“訓(xùn)練”這個(gè)網(wǎng)絡(luò)網(wǎng)絡(luò)根據(jù)輸入和輸出不斷地調(diào)節(jié)自己的各節(jié)點(diǎn)之間的權(quán)值來(lái)滿足輸入和輸出。這樣,當(dāng)訓(xùn)練結(jié)束后,我們給定
    發(fā)表于 06-19 14:40

    當(dāng)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)用于應(yīng)用的時(shí)候,權(quán)值是不是不能變了?

    當(dāng)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)用于應(yīng)用的時(shí)候,權(quán)值是不是不能變了????就是已經(jīng)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)是不是相當(dāng)于得到一個(gè)公式了,權(quán)值不能變了
    發(fā)表于 10-24 21:55

    請(qǐng)問(wèn)Labveiw如何調(diào)用matlab訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型呢?

    我在matlab中訓(xùn)練好了一個(gè)神經(jīng)網(wǎng)絡(luò)模型,想在labview中調(diào)用,請(qǐng)問(wèn)應(yīng)該怎么做呢?或者labview有自己的神經(jīng)網(wǎng)絡(luò)工具包嗎?
    發(fā)表于 07-05 17:32

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    元,它決定了該輸入向量在地位空間中的位置。SOM神經(jīng)網(wǎng)絡(luò)訓(xùn)練的目的就是為每個(gè)輸出層神經(jīng)元找到合適的權(quán)向量,以達(dá)到保持拓?fù)浣Y(jié)構(gòu)的目的。SOM的訓(xùn)練過(guò)程其實(shí)很簡(jiǎn)單,就是接收到一個(gè)
    發(fā)表于 07-21 04:30

    解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺(jué)實(shí)踐

    解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺(jué)實(shí)踐
    發(fā)表于 06-14 22:21

    【AI學(xué)習(xí)】第3篇--人工神經(jīng)網(wǎng)絡(luò)

    `本篇主要介紹:人工神經(jīng)網(wǎng)絡(luò)的起源、簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)模型、更多神經(jīng)網(wǎng)絡(luò)模型、機(jī)器學(xué)習(xí)的步驟:訓(xùn)練與預(yù)測(cè)、訓(xùn)練的兩階段:正向推演與反向傳播、以Te
    發(fā)表于 11-05 17:48

    基于光學(xué)芯片的神經(jīng)網(wǎng)絡(luò)訓(xùn)練解析,不看肯定后悔

    基于光學(xué)芯片的神經(jīng)網(wǎng)絡(luò)訓(xùn)練解析,不看肯定后悔
    發(fā)表于 06-21 06:33

    matlab實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò) 精選資料分享

    習(xí)神經(jīng)神經(jīng)網(wǎng)絡(luò),對(duì)于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)是如何一直沒(méi)有具體實(shí)現(xiàn)一下:現(xiàn)看到一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)模型用于訓(xùn)練的輸入數(shù)據(jù):對(duì)應(yīng)的輸出數(shù)據(jù):我們這里設(shè)置:
    發(fā)表于 08-18 07:25

    優(yōu)化神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法有哪些?

    優(yōu)化神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法有哪些?
    發(fā)表于 09-06 09:52

    如何進(jìn)行高效的時(shí)序圖神經(jīng)網(wǎng)絡(luò)訓(xùn)練

    現(xiàn)有的圖數(shù)據(jù)規(guī)模極大,導(dǎo)致時(shí)序圖神經(jīng)網(wǎng)絡(luò)訓(xùn)練需要格外長(zhǎng)的時(shí)間,因此使用多GPU進(jìn)行訓(xùn)練變得成為尤為重要,如何有效地將多GPU用于時(shí)序圖神經(jīng)網(wǎng)絡(luò)訓(xùn)練
    發(fā)表于 09-28 10:37

    Kaggle知識(shí)點(diǎn):訓(xùn)練神經(jīng)網(wǎng)絡(luò)的7個(gè)技巧

    科學(xué)神經(jīng)網(wǎng)絡(luò)模型使用隨機(jī)梯度下降進(jìn)行訓(xùn)練,模型權(quán)重使用反向傳播算法進(jìn)行更新。通過(guò)訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型解決的優(yōu)化問(wèn)題非常具有挑戰(zhàn)性,盡管這些算法在實(shí)踐
    的頭像 發(fā)表于 12-30 08:27 ?662次閱讀
    Kaggle知識(shí)點(diǎn):<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的7個(gè)技巧

    如何訓(xùn)練和優(yōu)化神經(jīng)網(wǎng)絡(luò)

    神經(jīng)網(wǎng)絡(luò)是人工智能領(lǐng)域的重要分支,廣泛應(yīng)用于圖像識(shí)別、自然語(yǔ)言處理、語(yǔ)音識(shí)別等多個(gè)領(lǐng)域。然而,要使神經(jīng)網(wǎng)絡(luò)在實(shí)際應(yīng)用中取得良好效果,必須進(jìn)行有效的訓(xùn)練和優(yōu)化。本文將從神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-01 14:14 ?481次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的是什么

    訓(xùn)練過(guò)程以及應(yīng)用場(chǎng)景。 1. 卷積神經(jīng)網(wǎng)絡(luò)的基本概念 1.1 卷積神經(jīng)網(wǎng)絡(luò)的定義 卷積神經(jīng)網(wǎng)絡(luò)是一種前饋深度學(xué)習(xí)模型,其核心思想是利用卷積操作提取輸入數(shù)據(jù)的局部特征,并通過(guò)多層結(jié)構(gòu)進(jìn)
    的頭像 發(fā)表于 07-03 09:15 ?428次閱讀

    怎么對(duì)神經(jīng)網(wǎng)絡(luò)重新訓(xùn)練

    重新訓(xùn)練神經(jīng)網(wǎng)絡(luò)是一個(gè)復(fù)雜的過(guò)程,涉及到多個(gè)步驟和考慮因素。 引言 神經(jīng)網(wǎng)絡(luò)是一種強(qiáng)大的機(jī)器學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、自然語(yǔ)言處理、語(yǔ)音識(shí)別等領(lǐng)域。然而,隨著時(shí)間的推移,數(shù)據(jù)分布可能會(huì)
    的頭像 發(fā)表于 07-11 10:25 ?473次閱讀

    脈沖神經(jīng)網(wǎng)絡(luò)怎么訓(xùn)練

    脈沖神經(jīng)網(wǎng)絡(luò)(SNN, Spiking Neural Network)的訓(xùn)練是一個(gè)復(fù)雜但充滿挑戰(zhàn)的過(guò)程,它模擬了生物神經(jīng)元通過(guò)脈沖(或稱(chēng)為尖峰)進(jìn)行信息傳遞的方式。以下是對(duì)脈沖神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-12 10:13 ?633次閱讀
    主站蜘蛛池模板: 热久久国产| 天堂电影在线| kkk4444免费观看| 欧美激情第一欧美在线| 精品欧美| 亚洲综合色色图| 久久99热精品免费观看无卡顿| 狠狠色婷婷七月色综合| 在线观看你懂的视频| 亚洲狠狠婷婷综合久久久图片| 五月综合激情久久婷婷| 三级黄网站| 久久黄网站| αv天堂| 天天爽夜夜爽夜夜爽| 男人在线资源| 搡女人视频免费| 美女下面小内内的沟| 亚州国产精品精华液| 日本人的色道www免费一区| 久久国产精品久久久久久久久久| 国产精品你懂得| 天天透天天操| a资源在线观看| 日本a级精品一区二区三区| 亚洲爱爱图片| 欧美激情综合| www毛片| 久操视频在线观看免费| 黄 在线| 亚洲a毛片| 久久综合狠狠综合久久| 在线视频 亚洲| 丰满放荡岳乱妇91www| 亚洲国产女人aaa毛片在线| 五月激情婷婷网| 精品手机在线| 天堂资源网| 中国男女全黄大片一级| 五月婷婷综合激情网| 久久伊人成人网|