在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

神經網絡入門:使用Python+Flux+Julia來實現手寫數字識別

電子設計 ? 來源:電子設計 ? 作者:電子設計 ? 2020-11-03 22:02 ? 次閱讀

使用 MNIST 數據集對 0 到 9 之間的數字進行手寫數字識別是神經網絡的一個典型入門教程

該技術在現實場景中是很有用的,比如可以把該技術用來掃描銀行轉帳單或支票,其中帳號和需要轉賬的金額可以被識別處理并寫在明確定義的方框中。

在本教程中,我們將介紹如何使用 Julia 編程語言和名為 Flux 的機器學習庫來實現這一技術。為什么使用 Flux 和 Julia?本教程為什么想使用 Flux(https://fluxml.ai/) 和 Julia(https://julialang.org/) ,而不是像 Torch、PyTorch、Keras 或 TensorFlow 2.0 這樣的知名框架呢?一個很好的原因是因為 Flux 更易于學習,而且它提供更好的性能和擁有有更大的潛力,另外一個原因是,Flux 在仍然是一個小庫的情況下實現了很多功能。Flux 庫非常小,因為它所做的大部分工作都是由 Julia 編程語言本身提供的。例如,如果你查看 Gorgonia ML 庫(https://github.com/gorgonia/gorgonia) 中的 Go 編程語言,你將看到,它明確地展示了其他機器學習庫如何構建一個需要執行和區分的表達式圖。在 Flux 中,這個圖就是 Julia 本身。Julia 與 LISP 非常相似,因為 Julia 代碼可以很容易地表示為數據結構,可以對其進行修改和計算。機器學習概論如果你是機器學習的新手,你可以跟著本教程來學習,但并不是所有的東西對你來說都是有價值的。你也可以看看我以前關于 Medium 的一些文章,它們可能會解釋你一些新手的疑惑:線性代數的核心思想。(https://medium.com/@Jernfrost/the-core-idea-of-linear-algebra-7405863d8c1d)線性代數基本上是關于向量和矩陣的,這是你在機器學習中經常用到的東西。使用引用。(https://medium.com/@Jernfrost/working-with-and-emulating-references-in-julia-e02c1cae5826)它看起來有點不太好理解,但是如果你想理解像 Flux 這樣的 ML 庫,那么理解 Julia 中的引用是很重要的。Flux 的實現。(https://medium.com/@Jernfrost/implementation-of-a-modern-machine-learning-library-3596badf3be)如何實現 Flux-ML 庫的初學者指南。機器學習簡介。(https://medium.com/@Jernfrost/machine-learning-for-dummies-in-julia-6cd4d2e71a46) 機器學習概論。簡單多層感知機我們要編程的人工神經網絡被稱為簡單的多層感知機,這是神經網絡(ANN)的基礎,大多數教科書都會從它開始。我先展示整個程序,然后我們再更詳細地講解不同的部分。using Flux, Flux.Data.MNIST, Statistics
using Flux: onehotbatch, onecold, crossentropy, throttle
using Base.Iterators: repeated
# Load training data. 28x28 grayscale images of digits
imgs = MNIST.images()
# Reorder the layout of the data for the ANN
imagestrip(image::Matrix{<:Gray}) = Float32.(reshape(image, :))
X = hcat(imagestrip.(imgs)...)
# Target output. What digit each image represents.
labels = MNIST.labels()
Y = onehotbatch(labels, 0:9)
# Defining the model (a neural network)
m = Chain(
Dense(28*28, 32, relu),
Dense(32, 10),
softmax)

loss(x, y) = crossentropy(m(x), y)
dataset = repeated((X, Y), 200)
opt = ADAM()
evalcb = () -> @show(loss(X, Y))
# Perform training on data
Flux.train!(loss, params(m), dataset, opt, cb = throttle(evalcb, 10))
探索輸入數據數據預處理通常是數據科學中最大的工作之一。通常情況下,數據的組織或格式化方式與將其輸入算法所需的方式不同。我們首先將 MNIST 數據集加載為 60000 個 28x28 像素的灰度圖像:imgs = MNIST.images()
現在,如果你這樣處理數據,你可能不知道輸出的數據是怎么樣子的,但使用 Julia 研究,我們只需檢查一下:julia> size(imgs)
(60000,)
輸出說明了 imgs 是一個包含 60000 個元素的一維數組。但這些元素是什么?julia> eltype(imgs)
Array{Gray{FixedPointNumbers.Normed{UInt8,8}},2}
你可能看不懂,但我可以簡單地告訴你這是什么:julia> eltype(imgs) <: Matrix{T} where T <: Gray
true
這告訴我們 imgs 中的每個元素都是某種值矩陣,這些值屬于某種類型 T,它是 Gray 類型的子類型。什么是 Gray 類型?我們可以在 Julia 在線文檔中查找:help?> Gray
Gray is a grayscale object. You can extract its value with gray(c).
如果我們想知道這些灰度值矩陣的維數,則可以:julia> size(imgs[1])
(28, 28)
julia> size(imgs[2])
(28, 28)
這告訴我們它們的尺寸為 28x28 像素。我們可以通過簡單地繪制其中的一些圖來進一步驗證這一點。Julia 的 Plots 庫使你可以繪制函數和圖像。julia> using Plots
julia> plot(imgs[2])

但是,你可能會發現了解更多的數據看起來是更有用。我們可以很容易地一起繪制幾個圖像:imgplots = plot.(imgs[1:9])
plot(imgplots...)

現在我們知道了數據是什么樣的了。準備輸入數據然而,我們不能像這樣將數據輸入到我們的神經網絡(ANN),因為每個神經網絡輸入必須是列向量,而不是矩陣。這是因為神經網絡期望一個矩陣作為輸入,矩陣中的每一列都是輸入。ANN 所看到的三乘十矩陣對應于十個不同的輸入,其中每個輸入包含三個不同的值或者更具體地說是三個不同的特征,因此,我們將 28x28 灰度圖像轉換為 28x28=784 的長像素帶。其次,我們的神經網絡并不知道什么是灰度值,它是對浮點數據進行操作的,所以我們必須同時轉換數據的維度和元素類型。數組中的列和行數稱為其形狀。很多人提到了張量,雖然它并不完全精確,但它是一個涵蓋了標量、向量、矩陣、立方體或任何等級的數組(基本上是數組的所有維度)的概念。在 Julia 中,我們可以使用 reshape 函數來改變數組的形狀。下面是一些你如何使用它的例子。這將創建一個包含四個元素的列向量 A:julia> A = collect(1:4)
4-element Array{Int64,1}:
1
2
3
4
通過 reshape 我們把它變成一個二乘二的矩陣 B:julia> B = reshape(A, (2, 2))
2×2 Array{Int64,2}:
1 3
2 4
矩陣可以再次轉換為列向量:julia> reshape(B, 4)
4-element Array{Int64,1}:
1
2
3
4
找出一個列向量到底有多少個元素是不切實際的,你可以讓 Julia 只通過寫來計算合適的長度。julia> reshape(B, :)
4-element Array{Int64,1}:
1
2
3
4
有了這些信息,應該更容易看到 imagestrip 函數的實際功能了,它將 28x28 的灰度矩陣轉換為 784 個 32 位浮點值的列向量。imagestrip(image::Matrix{<:Gray}) = Float32.(reshape(image, :))
該.符號用于將函數應用于數組的每個元素,因此 Float32.(xs)與 map(Float32, xs)是相同的。接下來,我們將 imagestrip 函數應用于 6 萬張灰度圖像中的每一張,生成 784x6000 個輸入矩陣 X。X = hcat(imagestrip.(imgs)...)
這是如何運作的?可以想象為 imagestrip.(imgs)將圖像轉換為單個輸入值的數組,例如[X?, X?, X?, ..., X?],其中 n = 60,000,每個 X?都是 784 個浮點值。使用 splat 運算符...,我們將其轉換為所有這些列向量的水平連接,以產生模型輸入。X = hcat(X?, X?, X?, ..., X?)
如果要驗證尺寸,則可以運行 size(X)。接下來,我們加載標簽。labels = MNIST.labels()
標簽是我們稱之為監督學習中觀察的"答案"部分。在我們的任務中,標簽是從 0 到 9 的數字。手繪數字的每一個圖像都應歸類為十個不同的數字之一,例如,如果這是一個包含不同花卉品種的花瓣長度和花瓣寬度的虹膜數據集,那么該品種的名稱就是標簽。X?代表我們所有的特征向量,用機器學習的術語來說,每個像素的灰度值都是一個特征。你可以將標簽與我們繪制的圖像進行比較。imgplots = plot.(imgs[1:9])
plot(imgplots...)
labels[1:9]
獨熱編碼每個圖像一個標簽,則有 60000 個標簽,然而神經網絡不能直接輸出標簽。例如,如果你正試圖對貓和狗的圖像進行分類,那么一個網絡不能輸出字符串“dog”或“cat”,因為它是使用浮點值的。如果標簽是一個不一定有用的數字,例如如果輸出是一系列郵政編碼,那么將 3000 的郵政編碼視為 1500 的郵政編碼的兩倍是沒有意義的,同樣,當使用神經網絡從圖像中預測數字時,4 的大小是 2 的兩倍并不重要,數字也可能是字母,因此它們的值不重要。我們在機器學習中處理這個問題的方法是使用所謂的獨熱編碼,這意味著,如果我們有標簽 A、B 和 C,并且我們想用獨熱編碼來表示它們,那么 A 是[1、0、0],B 是[0、1、0],C 是[0、0、1]。這看起來很浪費空間,但在 Julia one hot 數組內部,它只跟蹤元素的索引,并不保存所有的零。下面是一些正在使用的編碼示例:julia> Flux.onehot('B', ['A', 'B', 'C'])
3-element Flux.OneHotVector:
0
1
0
julia> Flux.onehot("foo", ["foo", "bar", "baz"])
3-element Flux.OneHotVector:
1
0
0
但是,我們不會使用 onehot 函數,因為我們正在創建一批獨熱編碼標簽,我們將把 60000 張圖片作為一個批次來處理。機器學習的批次指的是在我們模型(神經網絡)的權值或參數更新之前必須完成的最小樣本數量。Y = onehotbatch(labels, 0:9)
這將創建目標輸出。在理想情況下,模型(X)==Y,但在現實中,即使經過模型的訓練,也會有一些偏差。我們已經討論完數據準備,現在讓我們用人工神經網絡來構造我們的模型。構造神經網絡模型模型是真實世界的簡化表示,就像我們可以建立簡化的物理模型一樣,我們也可以用數學或代碼來創建物理世界的模型,現實中存在許多這樣的數學模型。例如,統計模型可以使用統計數據來模擬人們一天中是如何到達商店的。一般來說,人們會以一種遵循特定概率分布的方式到達。在我們的例子中,我們試圖用神經網絡來模擬現實世界中的一些東西,當然,這只是對現實世界的一種近似。當我們建立一個神經網絡時,我們有很多可以玩的東西。網絡是由多個層連接而成的,每一層通常都有一個激活函數。建立一個神經網絡的挑戰是選擇合適的層和激活函數,并決定每層應該有多少個節點。我們的模型非常簡單,定義如下:m = Chain(
Dense(28^2, 32, relu),
Dense(32, 10),
softmax)
這是一個三層的神經網絡。Chain 用于將各個層連接在一起。第一層 Dense(28^2, 32, relu)有 784(28x28)個輸入節點,對應于每個圖像中的像素數。它使用校正線性單元(ReLU)函數作為激活函數。在經典的神經網絡文獻中,通常會介紹 sigmoid 和 tanh。relu 等激活函數,這些激活函數在大多數情況下都工作得很好,包括圖像的分類。下一層是我們的隱藏層,它接受 32 個輸入,因為前一層有 32 個輸出,隱藏節點的數量沒有明確的對錯選擇。但輸出的數量根據不同任務是不一樣的,因為我們希望每個數字有一個輸出,這也就是“獨熱編碼”發揮作用的地方。Softmax 函數最后一層,是 softmax 函數,它以前一層的輸出的矩陣作為輸入,并沿著每一列進行歸一化。標準化將 60000 列中的每一列轉換為概率分布。那到底是什么意思?概率是 0 到 1 之間的值,0 表示事件永遠不會發生,1 是肯定會發生。與 min-max 歸一化一樣,softmax 將所有輸入歸一化為 0 到 1 之間的值,但是與 min max 不同的是它會確保所有值的和為一。這需要一些例子來說明。假設我創建了 10 個從 1 到 10 的隨機值,我們可以放任意范圍和任意數量的值。julia> ys = rand(1:10, 10)
10-element Array{Int64,1}:
9
6
10
5
10
2
6
6
7
9
現在讓我們使用不同的歸一化函數歸一化這個數組,我們將使用來自 LinearAlgebra 模塊的 normalize,因為它與 Julia 捆綁在一起。但首先使用 softmax:julia> softmax(ys)
10-element Array{Float64,1}:
0.12919082661651196
0.006432032517257137
0.3511770763952676
0.002366212528045101
0.3511770763952676
0.00011780678490667763
0.006432032517257137
0.006432032517257137
0.017484077111717768
0.12919082661651196
如你所見,所有值都在 0 到 1 之間?,F在看一下如果我們把它們加起來會發生什么:julia> sum(softmax(ys))
0.9999999999999999
它們基本上變成了 1。現在將其與 normalize 的功能進行對比:julia> using LinearAlgebra
julia> normalize(ys)
10-element Array{Float64,1}:
0.38446094597254243
0.25630729731502827
0.4271788288583805
0.21358941442919024
0.4271788288583805
0.0854357657716761
0.25630729731502827
0.25630729731502827
0.2990251802008663
0.38446094597254243
julia> sum(normalize(ys))
2.9902518020086633
julia> norm(normalize(ys))
1.0
julia> norm(softmax(ys))
0.52959100847191
如果對用 normalize 歸一化的值求和,它們只會得到一些隨機值,然而如果我們把結果反饋給 norm,我們得到的結果正好是 1.0。不同之處在于,normalize 將向量中的值進行了歸一化,以便它們可以表示單位向量,即長度正好為一的向量。norm 給出向量的大小。相比之下,softmax 不會將這些值視為向量,而是將其視為概率分布,每個元素表示輸入圖像為該數字的概率。假設我們有 A,B 和 C 的圖像作為輸入,如果你從 softmax 得到一個輸出值是[0.1,0.7,0.2],那么輸入圖像有 10%的可能性是 A 的圖形,有 70%的可能性是 B 的圖形,最后有 20%的可能性是 C 的圖形。這就是為什么我們希望 softmax 作為最后一層的原因。用神經網絡不能絕對確定輸入圖像是什么,但是我們可以給出一個概率分布,它表示更有可能是哪個數字。定義損失函數當訓練我們的神經網絡(模型)給出準確的預測時,我們需要定義人工神經網絡(ANN)的評估指標。為此,我們使用所謂的損失函數。損失函數有很多名字,20 年前當我被教授神經網絡時,我們曾稱之為誤差函數,也有人稱之為成本函數。然而,歸根結底,這是一種表達我們的預測與現實相比有多正確的方式。loss(x, y) = crossentropy(m(x), y)
訓練神經網絡實際上是最小化這個函數的輸出,所以這是一個優化問題。訓練是一個反復調整模型中參數(權重)的過程,直到損失函數的輸出變低,或者換句話說,直到我們的預測誤差變低。均方誤差函數(MSE)是計算預測錯誤程度的經典方法,這就意味著取差的平方,然而,MSE 更適合于線性回歸(將一條或多條直線擬合到某些觀測值)。在這種情況下,我們改用交叉熵函數。當你的最后一層是 softmax,進行分類而不是線性回歸時,這是我比較推薦的選擇。指定 Epoch 在機器學習術語中,Epoch 是訓練算法進行一次完整的迭代,換句話說:一個 Epoch 處理一個批次并更新權重因此,如果我們使用 10 個 Epoch 來進行訓練,那么模型的參數 / 權重將更新 / 調整 10 次。為了得到 200 個 Epoch,我們使用 repeat 重復我們的批處理 200 次。它實際上不會重復我們的數據 200 次,它只是用迭代器創建了這樣的錯覺。dataset = repeated((X, Y), 200)
在數據集中,我們得到的數組如下:dataset = [(X1, Y1), (X2, Y2), ..., (X200, Y200)]
優化器最常見和最著名的訓練神經網絡策略是梯度下降算法,這是由 Julia 中的 Descent 類型提供的。然而,在我們的例子中,當我們處理大量帶有相當數量噪聲的數據時,建議改用 ADAM 優化器,這就是所謂的隨機優化。opt = ADAM()
進行訓練我們終于可以進行訓練了,但我們希望在訓練進行的過程中得到一些反饋。我們定義了一個回調函數,在每次迭代(epoch)時,它將輸出 loss 函數的值,從而顯示錯誤。我們希望每次迭代時都能看到這個錯誤。evalcb = () -> @show(loss(X, Y))
觀察錯誤發展的一個有用的地方是,你可以看到是否有振蕩。人工神經網絡過快地朝著最低值過渡,會導致它朝相反的方向移動,如果速度太快,則會向相反的方向超調,振蕩會變得更加劇烈,直到誤差變為無窮大。這是一個切換優化算法或降低學習率的提示。不管怎樣,這就是你訓練的方式。注意,回調是可選的:Flux.train!(loss, params(m), dataset, opt, cb = throttle(evalcb, 10))
評價模型預測精度經過訓練后,我們可以測試模型在預測方面的表現。我們定義了這樣一個函數:accuracy(x, y) = mean(onecold((m(x))) .== onecold(y))
然后我們用輸入數據和標簽作為輸入參數來調用它:@show accuracy(X, Y)
至于什么是 onecold?在某種程度上,它與 onehot 實現的效果是相反的。我們的輸出 m(X)都是概率分布,而我們的目標 Y 都是獨熱向量。它們不能直接比較,所以我們需要使用 onecold 來做一個轉換。給定概率分布,它選擇最可能的候選:julia> onecold([0.1, 0.7, 0.2])
2
julia> onecold([0.9, 0.05, 0.05])
1
因此,使用 onecold(m(X))我們可以得到預測的標簽,這可以與實際的標簽 onecold(y)進行比較。用測試數據驗證模型到目前為止,我們只根據我們使用的訓練數據來驗證了我們的模型,然而,如果該模型不適用于新的數據,它將是完全無用的。因此,在訓練網絡時,我們通常將數據分為訓練數據和測試數據。測試數據不是訓練的一部分,只有在訓練完成后才能進行測試。tX = hcat(float.(reshape.(MNIST.images(:test), :))...)
tY = onehotbatch(MNIST.labels(:test), 0:9)
@show accuracy(tX, tY)
最后我希望這能幫助你理解建立神經網絡的過程。太多的教程傾向于跳過向初學者解釋的內容,從而所有的新概念都會很快變得令人困惑。我希望這為初學者在進一步探索機器學習之前提供了一個起點,特別是基于 Julia 的機器學習,因為我認為 Julia 有著光明的未來。

審核編輯 黃昊宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4773

    瀏覽量

    100882
  • 數字識別
    +關注

    關注

    2

    文章

    19

    瀏覽量

    10154
  • python
    +關注

    關注

    56

    文章

    4798

    瀏覽量

    84800
  • FLUX
    +關注

    關注

    0

    文章

    3

    瀏覽量

    5724
收藏 人收藏

    評論

    相關推薦

    使用Python卷積神經網絡(CNN)進行圖像識別的基本步驟

    Python 卷積神經網絡(CNN)在圖像識別領域具有廣泛的應用。通過使用卷積神經網絡,我們可以讓計算機從圖像中學習特征,從而實現對圖像的分
    的頭像 發表于 11-20 11:20 ?6300次閱讀

    【PYNQ-Z2申請】基于PYNQ-Z2的神經網絡圖形識別

    神經網絡的學習,講解其工作原理。4.基于PYNQ-Z2,用python實現一個神經網絡。5.訓練和測試神經網絡,完成
    發表于 01-09 14:48

    【PYNQ-Z2試用體驗】神經網絡基礎知識

    前言前面我們通過notebook,完成了在PYNQ-Z2開發板上編寫并運行python程序。我們的最終目的是基于神經網絡,完成手寫數字識別
    發表于 03-03 22:10

    【PYNQ-Z2試用體驗】基于PYNQ-Z2的神經網絡圖形識別[結項]

    前言前面我們簡單講解了神經網絡的基本概念和工作原理,接下來,將通過具體的python代碼完成基于神經網絡的圖形識別。這里使用
    發表于 03-18 21:51

    人工神經網絡手寫數字識別系統的詳細資料概述

    逼近未知非線性對象的特點,使其為手寫數字識別提供了一種新的方法。本論文采用一編制了一套基于神經網絡手寫
    發表于 05-27 08:00 ?18次下載
    人工<b class='flag-5'>神經網絡</b><b class='flag-5'>手寫</b><b class='flag-5'>數字</b><b class='flag-5'>識別</b>系統的詳細資料概述

    谷歌向神經網絡手寫數字識別發起挑戰,竟用量子計算識別

    神經網絡做 MNIST 手寫數字識別是機器學習小白用來練手的入門項目,業內最佳準確率已經達到了 99.84%。但最近,谷歌向這個「古老」的
    的頭像 發表于 08-17 17:17 ?1666次閱讀
    谷歌向<b class='flag-5'>神經網絡</b><b class='flag-5'>手寫</b><b class='flag-5'>數字</b><b class='flag-5'>識別</b>發起挑戰,竟用量子計算<b class='flag-5'>識別</b>

    使用PyhonFluxJulia實現手寫數字識別神經網絡入門教程

    使用 MNIST 數據集對 0 到 9 之間的數字進行手寫數字識別神經網絡的一個典型入門教程。
    發表于 12-08 00:23 ?7次下載

    Python從頭實現一個神經網絡理解神經網絡的原理1

    有個事情可能會讓初學者驚訝:神經網絡模型并不復雜!『神經網絡』這個詞讓人覺得很高大上,但實際上神經網絡算法要比人們想象的簡單。 這篇文章完全是為新手準備的。我們會通過用Python
    的頭像 發表于 02-27 15:05 ?706次閱讀
    用<b class='flag-5'>Python</b>從頭<b class='flag-5'>實現</b>一個<b class='flag-5'>神經網絡</b><b class='flag-5'>來</b>理解<b class='flag-5'>神經網絡</b>的原理1

    Python從頭實現一個神經網絡理解神經網絡的原理2

    有個事情可能會讓初學者驚訝:神經網絡模型并不復雜!『神經網絡』這個詞讓人覺得很高大上,但實際上神經網絡算法要比人們想象的簡單。 這篇文章完全是為新手準備的。我們會通過用Python
    的頭像 發表于 02-27 15:06 ?634次閱讀
    用<b class='flag-5'>Python</b>從頭<b class='flag-5'>實現</b>一個<b class='flag-5'>神經網絡</b><b class='flag-5'>來</b>理解<b class='flag-5'>神經網絡</b>的原理2

    Python從頭實現一個神經網絡理解神經網絡的原理3

    有個事情可能會讓初學者驚訝:神經網絡模型并不復雜!『神經網絡』這個詞讓人覺得很高大上,但實際上神經網絡算法要比人們想象的簡單。 這篇文章完全是為新手準備的。我們會通過用Python
    的頭像 發表于 02-27 15:06 ?740次閱讀
    用<b class='flag-5'>Python</b>從頭<b class='flag-5'>實現</b>一個<b class='flag-5'>神經網絡</b><b class='flag-5'>來</b>理解<b class='flag-5'>神經網絡</b>的原理3

    Python從頭實現一個神經網絡理解神經網絡的原理4

    有個事情可能會讓初學者驚訝:神經網絡模型并不復雜!『神經網絡』這個詞讓人覺得很高大上,但實際上神經網絡算法要比人們想象的簡單。 這篇文章完全是為新手準備的。我們會通過用Python
    的頭像 發表于 02-27 15:06 ?700次閱讀
    用<b class='flag-5'>Python</b>從頭<b class='flag-5'>實現</b>一個<b class='flag-5'>神經網絡</b><b class='flag-5'>來</b>理解<b class='flag-5'>神經網絡</b>的原理4

    手寫數字識別神經網絡實現(1)

    對MNIST數據集使用2層神經網絡(1層隱藏層)實現。
    的頭像 發表于 06-23 16:57 ?598次閱讀
    <b class='flag-5'>手寫</b><b class='flag-5'>數字</b><b class='flag-5'>識別</b><b class='flag-5'>神經網絡</b>的<b class='flag-5'>實現</b>(1)

    手寫數字識別神經網絡實現(2)

    在練習二中,手寫數字識別使用數值微分的方式實現神經網絡,現在用誤差反向傳播法
    的頭像 發表于 06-23 16:57 ?719次閱讀

    卷積神經網絡python代碼

    卷積神經網絡python代碼 ; 卷積神經網絡(Convolutional Neural Network,簡稱CNN)是一種可以在圖像處理和語音識別等領域中很好地應用的
    的頭像 發表于 08-21 16:41 ?1042次閱讀

    神經網絡在圖像識別中的應用

    隨著人工智能技術的飛速發展,神經網絡在圖像識別領域的應用日益廣泛。神經網絡以其強大的特征提取和分類能力,為圖像識別帶來了革命性的進步。本文將詳細介紹
    的頭像 發表于 07-01 14:19 ?695次閱讀
    主站蜘蛛池模板: 屁股趴过来欠打高h| 久久中文字幕一区二区三区| 天天干网址| 性叉叉| 最猛91大神ben与女教师| 日日干狠狠操| 国产精品嫩草影院一二三区| 激情婷婷六月天| www毛片| 天天天天做夜夜夜夜| 欧美7777kkkk免费看258| 国产精品推荐天天看天天爽| 男人搡女人视频免费看| 欧美满足你的丝袜高跟ol| 一级毛片成人免费看a| 天堂资源在线种子资源| 欧美一级特黄aaa大片| 黄网址免费| bt种子在线搜索| 欧美射射射| 免费啪啪网| 精品一区二区三区视频| 四虎最新永久免费网址| 久久夜色精品国产亚洲| 欧美色国| 国产好深好硬好爽我还要视频| sss在线play| 人人干国产| 狼干综合| 亚洲高清免费观看| 拍真实国产伦偷精品| 国产伦子系列视频6| 天天操夜夜爽| 天堂中文最新版www| 天堂资源8中文最新版在线| 国产美女一级高清免费观看| 欲妇放荡叫床很浪的小说| 中文字幕亚洲天堂| 欧美天天视频| 永久国产| 视频在线观看免费网站|