在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)最常見的26個(gè)模型匯總

電子工程師 ? 來源:lq ? 2019-05-15 09:23 ? 次閱讀

今天更新關(guān)于常見深度學(xué)習(xí)模型適合練手的項(xiàng)目。這些項(xiàng)目大部分是我之前整理的,基本上都看過,大概倆特點(diǎn):代碼不長,一般50-200行代碼,建議先看懂然后再實(shí)現(xiàn)和優(yōu)化,我看基本上所有的實(shí)現(xiàn)都有明顯可優(yōu)化的地方;五臟俱全,雖然代碼不長,但是該有的功能都有,該包含的部分也基本都有。所以很適合練手,而且實(shí)現(xiàn)后還可保存好,以后很多任務(wù)可能就會用到。

本文包括簡介、練手項(xiàng)目和我的建議(建議最好看看這部分)。

簡介

本篇是深度學(xué)習(xí)最常見的 26 個(gè)模型匯總的姐妹篇,建議先看那篇再看本篇。本篇新增了 26 個(gè)模型的練手項(xiàng)目。

練手項(xiàng)目

2.1 Feed forward neural networks (FF or FFNN) and perceptrons (P)

前饋神經(jīng)網(wǎng)絡(luò)和感知機(jī),信息從前(輸入)往后(輸出)流動(dòng),一般用反向傳播(BP)來訓(xùn)練。算是一種監(jiān)督學(xué)習(xí)。

對應(yīng)的代碼:

https://github.com/danijar/layered

https://github.com/civisanalytics/muffnn

2.2 Radial basis function (RBF)

徑向基函數(shù)網(wǎng)絡(luò),是一種徑向基函數(shù)作為激活函數(shù)的FFNNs(前饋神經(jīng)網(wǎng)絡(luò))。

對應(yīng)的代碼:

https://github.com/eugeniashurko/rbfnnpy

2.3 Hopfield network (HN)

Hopfield網(wǎng)絡(luò),是一種每個(gè)神經(jīng)元都跟其它神經(jīng)元相連接的神經(jīng)網(wǎng)絡(luò)。

對應(yīng)的代碼:

https://github.com/yosukekatada/Hopfield_network

2.4 Markov chains (MC or discrete time Markov Chain, DTMC)

馬爾可夫鏈 或離散時(shí)間馬爾可夫鏈,算是BMs和HNs的雛形。

對應(yīng)的代碼:

Markov chains:https://github.com/jsvine/markovify

DTMC:https://github.com/AndrewWalker/dtmc

2.5 Boltzmann machines (BM)

玻爾茲曼機(jī),和Hopfield網(wǎng)絡(luò)很類似,但是:一些神經(jīng)元作為輸入神經(jīng)元,剩余的是隱藏層。

對應(yīng)的代碼:

https://github.com/yell/boltzmann-machines

2.6 Restricted Boltzmann machines (RBM)

受限玻爾茲曼機(jī),和玻爾茲曼機(jī)以及Hopfield網(wǎng)絡(luò)都比較類似。

對應(yīng)的代碼:

https://github.com/echen/restricted-boltzmann-machines

2.7 Autoencoders (AE)

自動(dòng)編碼,和FFNN有些類似,它更像是FFNN的另一種用法,而不是本質(zhì)上完全不同的另一種架構(gòu)。

對應(yīng)的代碼:

https://github.com/caglar/autoencoders/blob/master/ae.py

2.8 Sparse autoencoders (SAE)

稀疏自動(dòng)編碼,跟自動(dòng)編碼在某種程度比較相反。

對應(yīng)的代碼:

https://github.com/caglar/autoencoders/blob/master/sa.py

2.9 Variational autoencoders (VAE)

變分自動(dòng)編碼,和AE架構(gòu)相似,不同的是:輸入樣本的一個(gè)近似概率分布。這使得它跟BM、RBM更相近。

對應(yīng)的代碼:

https://github.com/mattjj/svae

2.10 Denoising autoencoders (DAE)

去噪自動(dòng)編碼,也是一種自編碼機(jī),它不僅需要訓(xùn)練數(shù)據(jù),還需要帶噪音的訓(xùn)練數(shù)據(jù)。

對應(yīng)對應(yīng)的代碼:

https://github.com/caglar/autoencoders/blob/master/da.py

2.11 Deep belief networks (DBN)

深度信念網(wǎng)絡(luò),由多個(gè)受限玻爾茲曼機(jī)或變分自動(dòng)編碼堆砌而成。

對應(yīng)的代碼:

https://github.com/albertbup/deep-belief-network

2.12 Convolutional neural networks (CNN or deep convolutional neural networks, DCNN)

卷積神經(jīng)網(wǎng)絡(luò),這個(gè)不解釋也都知道。

對應(yīng)的代碼:

CNN:https://github.com/bamtercelboo/cnn-lstm-bilstm-deepcnn-clstm-in-pytorch/blob/master/models/model_CNN.py

DCNN:https://github.com/bamtercelboo/cnn-lstm-bilstm-deepcnn-clstm-in-pytorch/blob/master/models/model_DeepCNN.py

2.13 Deconvolutional networks (DN)

去卷積網(wǎng)絡(luò),又叫逆圖形網(wǎng)絡(luò),是一種逆向的卷積神經(jīng)網(wǎng)絡(luò)。

對應(yīng)的代碼:

https://github.com/ifp-uiuc/anna

2.14Deep convolutional inverse graphics networks (DCIGN)

深度卷積逆向圖網(wǎng)絡(luò),實(shí)際上是VAE,且分別用CNN、DNN來作編碼和解碼。

對應(yīng)的代碼:

https://github.com/yselivonchyk/TensorFlow_DCIGN

2.15 Generative adversarial networks (GAN)

生成對抗網(wǎng)絡(luò),Goodfellow的封神之作,這個(gè)模型不用解釋也都知道。

對應(yīng)的代碼:

https://github.com/devnag/pytorch-generative-adversarial-networks

2.16 Recurrent neural networks (RNN)

循環(huán)神經(jīng)網(wǎng)絡(luò),這個(gè)更不用解釋,做語音、NLP的沒有人不知道,甚至非AI相關(guān)人員也知道。

對應(yīng)的代碼:

https://github.com/farizrahman4u/recurrentshop

2.17 Long / short term memory (LSTM)

長短期記憶網(wǎng)絡(luò),RNN的變種,解決梯度消失/爆炸的問題,也不用解釋,這幾年刷爆各大頂會。

對應(yīng)的代碼:

https://github.com/bamtercelboo/cnn-lstm-bilstm-deepcnn-clstm-in-pytorch/blob/master/models/model_LSTM.py

2.18 Gated recurrent units (GRU)

門循環(huán)單元,類似LSTM的定位,算是LSTM的簡化版。

對應(yīng)的代碼:

https://github.com/bamtercelboo/cnn-lstm-bilstm-deepcnn-clstm-in-pytorch/blob/master/models/model_GRU.py

2.19 Neural Turing machines (NTM)

神經(jīng)圖靈機(jī),LSTM的抽象,以窺探LSTM的內(nèi)部細(xì)節(jié)。具有讀取、寫入、修改狀態(tài)的能力。

對應(yīng)的代碼:

https://github.com/MarkPKCollier/NeuralTuringMachine

2.20 Bidirectional recurrent neural networks, bidirectional long / short term memory networks and bidirectional gated recurrent units (BiRNN, BiLSTM and BiGRU respectively)

雙向循環(huán)神經(jīng)網(wǎng)絡(luò)、雙向長短期記憶網(wǎng)絡(luò)和雙向門控循環(huán)單元,把RNN、雙向的LSTM、GRU雙向,不再只是從左到右,而是既有從左到右又有從右到左。

對應(yīng)的代碼:

BiRNN:https://github.com/cstghitpku/cnn-lstm-bilstm-deepcnn-clstm-in-pytorch/tree/master/models

BiLSTM:https://github.com/bamtercelboo/cnn-lstm-bilstm-deepcnn-clstm-in-pytorch/blob/master/models/model_BiLSTM.py

BiGRU:https://github.com/bamtercelboo/cnn-lstm-bilstm-deepcnn-clstm-in-pytorch/blob/master/models/model_BiGRU.py

2.21 Deep residual networks (DRN)

深度殘差網(wǎng)絡(luò),是非常深的FFNN,它可以把信息從某一層傳至后面幾層(通常2-5層)。

對應(yīng)的代碼:

https://github.com/KaimingHe/deep-residual-networks

2.22 Echo state networks (ESN)

回聲狀態(tài)網(wǎng)絡(luò),是另一種不同類型的(循環(huán))網(wǎng)絡(luò)。

對應(yīng)的代碼:

https://github.com/m-colombo/Tensorflow-EchoStateNetwork

2.23 Extreme learning machines (ELM)

極限學(xué)習(xí)機(jī),本質(zhì)上是隨機(jī)連接的FFNN。

對應(yīng)的代碼:

https://github.com/dclambert/Python-ELM

2.24 Liquid state machines (LSM)

液態(tài)機(jī),跟ESN類似,區(qū)別是用閾值激活函數(shù)取代了sigmoid激活函數(shù)。

對應(yīng)的代碼:

https://github.com/kghose/Liquid

2.25 Support vector machines (SVM)

支持向量機(jī),入門機(jī)器學(xué)習(xí)的人都知道,不解釋。

對應(yīng)的代碼:

https://github.com/ajtulloch/svmpy

2.26 Kohonen networks (KN, also self organising (feature) map, SOM, SOFM)

Kohonen 網(wǎng)絡(luò),也稱之為自組織(特征)映射。

對應(yīng)的代碼KN/SOM:

https://github.com/mljs/som

后續(xù)建議

我個(gè)人感覺能力提升最快的方式是:先橫向?qū)W習(xí)一個(gè)領(lǐng)域,做到全面的認(rèn)識;然后從頭到尾一項(xiàng)一項(xiàng)去突破,做到有深度。如果今天學(xué)點(diǎn)這個(gè),明天學(xué)點(diǎn)那個(gè),水平提升很慢,建議順著技術(shù)發(fā)展的主線從頭到尾學(xué)完。技術(shù)是無止境的,積累很重要,但有量遠(yuǎn)遠(yuǎn)不夠,還得講究方法。

對應(yīng)到本文,學(xué)會并實(shí)現(xiàn)和優(yōu)化這些模型,遠(yuǎn)遠(yuǎn)不夠。我建議還可以有如下嘗試:

單層模型實(shí)現(xiàn)之后,試試多層或者模型stack;

試試模型的結(jié)合,比如LSTM/GRU+CNN/DCNN、CNN/DCNN+LSTM/GRU、LSTM/GRU+CRF等;

在一些模型上加attention(這里很多模型適合加);

利用這些模型解決一些比較簡單的小問題,比如用CNN識別數(shù)字、LSTM+CRF做NER等;

性能方面的提升,比如支持分布式訓(xùn)練、支持GPU等;

把這些模型做成一個(gè)框架,到時(shí)候記得通知我,我一定拜讀。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4771

    瀏覽量

    100766
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3243

    瀏覽量

    48840
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5503

    瀏覽量

    121162

原文標(biāo)題:上手!深度學(xué)習(xí)最常見的26個(gè)模型練習(xí)項(xiàng)目匯總

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    列舉了20個(gè)最常見的電路

    為電子工程師的你,已經(jīng)掌握了多少模擬電路呢?還應(yīng)該掌握多少圖紙和原理呢?本文列舉了20個(gè)最常見的電路,并粗略的推斷出不同層次的發(fā)燒對線路的不同理解程度,快來對照看看你是哪個(gè)程度的電子工程師?! ∫?/div>
    發(fā)表于 05-21 07:35

    深度學(xué)習(xí)模型是如何創(chuàng)建的?

    具有深度學(xué)習(xí)模型的嵌入式系統(tǒng)應(yīng)用程序帶來了巨大的好處。深度學(xué)習(xí)嵌入式系統(tǒng)已經(jīng)改變了各個(gè)行業(yè)的企業(yè)和組織。
    發(fā)表于 10-27 06:34

    什么是深度學(xué)習(xí)?使用FPGA進(jìn)行深度學(xué)習(xí)的好處?

    什么是深度學(xué)習(xí)為了解釋深度學(xué)習(xí),有必要了解神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)是一種模擬人腦的神經(jīng)元和神經(jīng)網(wǎng)絡(luò)的計(jì)算模型。作為具體示例,讓我們考慮一
    發(fā)表于 02-17 16:56

    深度學(xué)習(xí)最常見的10個(gè)方法盤點(diǎn)

    們希望機(jī)器學(xué)習(xí)做的事情混為一談。從根本上講,機(jī)器學(xué)習(xí)是使用算法從原始數(shù)據(jù)中提取信息,并在某種類型的模型中表示這些信息。我們使用這個(gè)模型來推斷還沒有建模的其他數(shù)據(jù)。
    的頭像 發(fā)表于 10-05 08:40 ?4478次閱讀

    深度學(xué)習(xí)網(wǎng)絡(luò)訓(xùn)練技巧的詳細(xì)資料匯總

    本文檔的主要內(nèi)容詳細(xì)介紹的是深度學(xué)習(xí)網(wǎng)絡(luò)訓(xùn)練技巧匯總,總結(jié)訓(xùn)練網(wǎng)絡(luò)的各種經(jīng)驗(yàn)和技巧
    發(fā)表于 03-07 08:00 ?10次下載
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>網(wǎng)絡(luò)訓(xùn)練技巧的詳細(xì)資料<b class='flag-5'>匯總</b>

    深度學(xué)習(xí)模型壓縮與加速綜述

    目前在深度學(xué)習(xí)領(lǐng)域分類兩個(gè)派別,一派為學(xué)院派,研究強(qiáng)大、復(fù)雜的模型網(wǎng)絡(luò)和實(shí)驗(yàn)方法,為了追求更高的性能;另一派為工程派,旨在將算法更穩(wěn)定、高效的落地在硬件平臺上,效率是其追求的目標(biāo)。復(fù)雜
    的頭像 發(fā)表于 06-08 17:26 ?5224次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>壓縮與加速綜述

    深度模型中的優(yōu)化與學(xué)習(xí)課件下載

    深度模型中的優(yōu)化與學(xué)習(xí)課件下載
    發(fā)表于 04-07 16:21 ?3次下載
    <b class='flag-5'>深度</b><b class='flag-5'>模型</b>中的優(yōu)化與<b class='flag-5'>學(xué)習(xí)</b>課件下載

    最常見的目標(biāo)跟蹤算法

    對象跟蹤問題一直是計(jì)算機(jī)視覺的熱點(diǎn)任務(wù)之一,簡單的可以分為單目標(biāo)跟蹤與多目標(biāo)跟蹤,最常見的目標(biāo)跟蹤算法都是基于檢測的跟蹤算法,首先發(fā)現(xiàn)然后標(biāo)記,好的跟蹤算法必須具備REID的能力。今天小編斗膽給大家推薦一個(gè)結(jié)合傳統(tǒng)算法跟深度
    的頭像 發(fā)表于 09-14 16:20 ?2751次閱讀

    模型為什么是深度學(xué)習(xí)的未來?

    與傳統(tǒng)機(jī)器學(xué)習(xí)相比,深度學(xué)習(xí)是從數(shù)據(jù)中學(xué)習(xí),而大模型則是通過使用大量的模型來訓(xùn)練數(shù)據(jù)。
    的頭像 發(fā)表于 02-16 11:32 ?2111次閱讀

    深度學(xué)習(xí)框架是什么?深度學(xué)習(xí)框架有哪些?

    模型的精度和性能。隨著人工智能和機(jī)器學(xué)習(xí)的迅猛發(fā)展,深度學(xué)習(xí)框架已成為了研究和開發(fā)人員們必備的工具之一。 目前,市場上存在許多深度
    的頭像 發(fā)表于 08-17 16:03 ?2744次閱讀

    機(jī)器學(xué)習(xí)算法匯總 機(jī)器學(xué)習(xí)算法分類 機(jī)器學(xué)習(xí)算法模型

    機(jī)器學(xué)習(xí)算法匯總 機(jī)器學(xué)習(xí)算法分類 機(jī)器學(xué)習(xí)算法模型 機(jī)器學(xué)習(xí)是人工智能的分支之一,它通過分析和
    的頭像 發(fā)表于 08-17 16:11 ?1109次閱讀

    深度學(xué)習(xí)模型優(yōu)化與調(diào)試方法

    深度學(xué)習(xí)模型在訓(xùn)練過程中,往往會遇到各種問題和挑戰(zhàn),如過擬合、欠擬合、梯度消失或爆炸等。因此,對深度學(xué)習(xí)
    的頭像 發(fā)表于 07-01 11:41 ?823次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個(gè)復(fù)雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計(jì)算資源和精心設(shè)計(jì)的算法。訓(xùn)練一個(gè)深度
    的頭像 發(fā)表于 07-01 16:13 ?1273次閱讀

    深度學(xué)習(xí)中的模型權(quán)重

    深度學(xué)習(xí)這一充滿無限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型學(xué)習(xí)的基石,更是
    的頭像 發(fā)表于 07-04 11:49 ?1307次閱讀

    AI大模型深度學(xué)習(xí)的關(guān)系

    AI大模型深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大
    的頭像 發(fā)表于 10-23 15:25 ?738次閱讀
    主站蜘蛛池模板: 手机在线你懂的| 久久免费看视频| 国产天天在线| 成人性色生活影片| 日日操夜夜操天天操| 酒色成人网| 天堂看动漫| 国产青草| 簧片视频在线观看| 在线视频观看你懂的| 欧美三页| 国产美女一区| 成人综合在线视频| 一本二卡三卡四卡乱码二百| 婷婷丁香激情五月| 国产高清视频在线免费观看| 国产人成午夜免费看| 最黄毛片| 国产一区二区高清| bt天堂在线观看| 婷婷六月丁香| 97在线精品| 久久久久久久影院| 99热在线获取最新地址| 久久婷婷综合中文字幕| 国产午夜影院| 亚在线| 不卡精品国产_亚洲人成在线 | 韩国理论片2023现在观看| 黄视频免费| 好男人午夜www视频在线观看| 成人激情综合网| 天天射色综合| 午夜免费毛片| 国产精品污视频| 国产激烈床戏无遮挡在线观看| 巨骚综合网| 免费大片黄日本在线观看| 国产精品美女www爽爽爽视频| 四虎影在永久地址在线观看| 天天透天天操|