在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

2018版的“針對編程者的深度學(xué)習(xí)課程大致介紹

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-07-02 08:39 ? 次閱讀

編者按:今年年初,fast.ai的創(chuàng)始人、數(shù)據(jù)科學(xué)家Jeremy Howard推出了2018版的“針對編程者的深度學(xué)習(xí)課程”——Practical Deep Learning For Coders, Part 1。這場免費的課程可以教大家如何搭建最前沿的模型、了解深度學(xué)習(xí)的基礎(chǔ)知識。昨天,fast.ai發(fā)布了課程的第二部分“Cutting Edge Deep Learning for Coders”。以下是論智對課程的大致介紹。

5月7日,fast.ai發(fā)布了2018版的Cutting Edge Deep Learning for Coders的第二部分,這是fast.ai免費深度學(xué)習(xí)課程中的一部分。如同本課程的第一部分一樣,參與者只需要有高中數(shù)學(xué)基礎(chǔ)和一年的編程經(jīng)驗即可,其余的部分我們會交給你。這一課程包括了許多新元素,比如NLP分類領(lǐng)域最新的成果(20%都比現(xiàn)有的方法更好),并且教你如何復(fù)制最近ImageNet和CIFAR10的最佳性能。其中主要用到的庫是PyTorch和fastai。

每節(jié)課程配有兩小時左右的視頻,以及交互式Jupyter Notebook和fast.ai論壇上詳細(xì)的討論。課程涵蓋了許多話題,包括用SSD和YOLOv3進(jìn)行多目標(biāo)檢測、如何閱讀學(xué)術(shù)論文、如何定制一個預(yù)訓(xùn)練模型、進(jìn)行復(fù)雜的數(shù)據(jù)增強(左邊變量、像素分類等等)、NLP遷移學(xué)習(xí)、用新的fast.ai文本庫處理大型語料庫、進(jìn)行并研究對比試驗、目前NLP分類的先進(jìn)成果、多模型學(xué)習(xí)、多任務(wù)學(xué)習(xí)、雙向LSTM帶有seq2seq的注意力、神經(jīng)翻譯、定制ResNet架構(gòu)、GANs、WGAN和CycleGAN、數(shù)據(jù)分類、超分辨率、用u-net進(jìn)行圖像分割。

Lesson 8

第8課是本課程第一部分的回顧,并介紹了第二部分的重點:先進(jìn)研究。在這里,我們介紹了如何閱讀論文,以及在搭建自己的深度學(xué)習(xí)架構(gòu)時都要什么。即使你之前從未讀過一篇學(xué)術(shù)論文,我們也會從頭開始教你,避免你被各種符號或?qū)懽黠L(fēng)格迷惑。另外,在這節(jié)課中,我們將會深入了解fastai和PyTorch庫中的源代碼:我們會教你如何快速瀏覽并搭建易懂的代碼。另外我們還會展示如何運用Python的調(diào)試器幫助你了解目前的情況以及修復(fù)bug。

本課的主要話題是目標(biāo)檢測,即讓模型在每個目標(biāo)對象周圍畫上邊界框,并正確標(biāo)注。你可能會很驚訝,我們竟可以用從來沒被訓(xùn)練過的、從ImageNet分類器上的遷移學(xué)習(xí)來做圖像檢測!其中有兩個主要任務(wù):對目標(biāo)物體定位,同時給它們分類。我們要用一個模型同時完成這兩個任務(wù)。這種多任務(wù)學(xué)習(xí)總體上比給每個人物都設(shè)計不同的模型效率更高。為了利用與訓(xùn)練模型創(chuàng)建自定義網(wǎng)絡(luò),我們將使用fastai的靈活定制的head architecture。

Lesson 9

在這節(jié)課中,我們關(guān)注的重點從單一物體轉(zhuǎn)向了多個物體檢測。結(jié)果表明這種改變讓問題的難度增加。事實上,大多學(xué)生覺得這是整個課程中最具挑戰(zhàn)性的部分。并不是因為某一部分非常復(fù)雜,而是因為組成部分實在太多了。所以這個任務(wù)真的很考驗?zāi)銓Ω鞣N基礎(chǔ)概念的理解。不過不要擔(dān)心,你可以時不時地回看之前的課程,逐漸就會對整個任務(wù)有所把握。

我們的關(guān)注重點是Single Shot Multibox Detector(SSD),同時還附帶相應(yīng)的YOLOv3檢測器。這些都是處理多目標(biāo)檢測任務(wù)的方法,通過結(jié)合多物體的損失,使用損失函數(shù)。他們同樣還使用定制化的網(wǎng)絡(luò),利用CNN中不同圖層的不同接受域。我們同樣要討論,如何在獨立變量也需要增強的情況下進(jìn)行數(shù)據(jù)增強。最后,我們討論一個簡單但強大的技巧,稱作焦點損失,用于得到該領(lǐng)域的最新成果。

anchor box示例,這是多目標(biāo)檢測的關(guān)鍵

Lesson 10

大致回顧下關(guān)于目標(biāo)檢測之所學(xué),在第10課我們會轉(zhuǎn)向NLP,從介紹新的fast.ai文本庫開始。fast.ai文本庫是torchtext的替代品,在很多情況下,它比后者更快且更靈活。這節(jié)課可能與第一部分的第4課有些重合,但是本節(jié)課會教你如何用NLP中的遷移學(xué)習(xí)產(chǎn)生更加精確的結(jié)果。

遷移學(xué)習(xí)在計算機視覺領(lǐng)域做出了許多革命性的成果,但是直到現(xiàn)在卻沒有在NLP領(lǐng)域有重要的應(yīng)用(在某種程度上可以說是被忽略了)。在這節(jié)課上,我們會展示如何預(yù)訓(xùn)練一個全語言的模型,能超越此前基于簡單詞向量的方法。我們將把這一語言模型看作是文本分類的最新成果。

如何完成并理解對比試驗

Lesson 11

本節(jié)課上,我們會學(xué)習(xí)將法語翻譯成英語!為了達(dá)到這一目標(biāo),我們將學(xué)習(xí)如何在LSTM中添加注意力,以創(chuàng)建一個seq2seq的模型。但是在做之前,我們需要了解RNN的一些基礎(chǔ)知識,因為了解這些對課程的其他部分非常重要。

seq2seq模型的輸入和輸出都是序列,并且長度不同。翻譯是seq2seq的一個典型任務(wù)。因為每個翻譯過來的詞語可以對應(yīng)源句子中一個或多個不同位置的詞語,我們利用一個注意力機制來確定每個步驟應(yīng)該關(guān)注哪些詞語。我們同樣學(xué)習(xí)其他的技巧來改進(jìn)seq2seq的結(jié)果,包括teacher forcing和雙向模型。

課程結(jié)尾,我們討論了DeVISE論文,其中展示了如何用同樣的模型將文本和圖像連接起來。

簡單的seq2seq模型

Lesson 12

在本節(jié)課一開始,我們就用YOLOv3探究DarkNet的架構(gòu),它還可以幫助我們更好地理解搭建ResNet架構(gòu)時的各種細(xì)節(jié)和選擇。在這里我們討論的基本方法是贏得過DAWNBench競賽的方法。

然后我們會學(xué)習(xí)生成對抗網(wǎng)絡(luò)(GANs)。事實上這是另一種形式的損失函數(shù)。GANs有一個生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò),生成模型的目的就是生成現(xiàn)實度極高的輸出。我們會重點討論Wasserstein GAN,因為這個更好訓(xùn)練,同時對大量超參數(shù)的穩(wěn)定性更好。

CycleGAN模型

Lesson 13

這節(jié)課我們會講到CycleGAN,它是GANs領(lǐng)域的突破性思想,可以憑空生成并無訓(xùn)練過的圖像。我們可以用它將馬變成斑馬。也許目前你不需要這種應(yīng)用,但是它的基本思想可以轉(zhuǎn)移到很多有價值的應(yīng)用中。我們其中一位學(xué)生正用它創(chuàng)作新形式的視覺藝術(shù)。

但是生成模型也會對社會造成傷害。所以我們也要花些時間討論數(shù)據(jù)的規(guī)范。這個話題需要在整個課程中被關(guān)注,但是由于時間關(guān)系不能列出所有細(xì)節(jié),希望我們能講出其中重要的問題。

在課程結(jié)尾,我們會研究風(fēng)格遷移問題,這個技術(shù)能將圖像改變成自己喜歡的風(fēng)格。這種方法需要我們優(yōu)化像素(而不是權(quán)重),所以是優(yōu)化問題的一個有趣方面。

偏差是目前數(shù)據(jù)規(guī)范中一個重要問題

Lesson 14

在最后一節(jié)課中,我們會深入研究超分辨率,這種神奇的技術(shù)能讓我們基于卷積神經(jīng)網(wǎng)絡(luò),將圖片的分辨率恢復(fù)得非常高。在這一過程中,我們正研究一些能更快、更可靠的訓(xùn)練卷積網(wǎng)絡(luò)的方法。

最后,我們要講的是圖像分割,尤其是利用U-net架構(gòu),這種技術(shù)贏得了多次Kaggle競賽,并在行業(yè)內(nèi)廣泛使用。圖像分割模型能讓我們精準(zhǔn)分辨圖像的每個位置,精確至像素級別。

目標(biāo)物體分割的示例

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像分割
    +關(guān)注

    關(guān)注

    4

    文章

    182

    瀏覽量

    18024
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5510

    瀏覽量

    121338
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    353

    瀏覽量

    22265

原文標(biāo)題:fast.ai發(fā)布針對編程者的深度學(xué)習(xí)教程

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    《HarmonyOS第一課》煥新升級,賦能開發(fā)快速掌握鴻蒙應(yīng)用開發(fā)

    云梯 《HarmonyOS第一課》分為基礎(chǔ)、中級、高級及主題課程四大模塊,為不同層次開發(fā)量身定制學(xué)習(xí)路徑。 基礎(chǔ)課程針對初級開發(fā)
    發(fā)表于 01-02 14:24

    4G模組SD卡接口編程深度學(xué)習(xí)

    今天我們需要深度學(xué)習(xí)的是4G模組SD卡接口編程,以我常用的模組Air724UG為例,分享給大家。
    的頭像 發(fā)表于 11-20 23:14 ?287次閱讀
    4G模組SD卡接口<b class='flag-5'>編程</b>:<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>

    NPU在深度學(xué)習(xí)中的應(yīng)用

    設(shè)計的硬件加速器,它在深度學(xué)習(xí)中的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學(xué)習(xí)算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和G
    的頭像 發(fā)表于 11-14 15:17 ?726次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?440次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)模型的案例: 一、基于FPG
    的頭像 發(fā)表于 10-25 09:22 ?284次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩關(guān)系的介紹: 一、深度
    的頭像 發(fā)表于 10-23 15:25 ?1020次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    ,F(xiàn)PGA 也需要不斷適應(yīng)和改進(jìn)。研究人員和開發(fā)將致力于針對 FPGA 的特點對深度學(xué)習(xí)算法進(jìn)行優(yōu)化,例如探索更高效的模型壓縮方法、量化技術(shù)以及硬件友好的算法結(jié)構(gòu)等,以進(jìn)一步提高 F
    發(fā)表于 09-27 20:53

    【全新課程資料】正點原子《基于GD32 ARM32單片機項目實戰(zhàn)入門》培訓(xùn)課程資料上線!

    正點原子《基于GD32 ARM32單片機項目實戰(zhàn)入門》全新課程資料上線啦!徹底解決ARM32單片機項目入門難的問題! 一、課程介紹課程專為ARM32單片機的入門
    發(fā)表于 09-24 18:06

    【全新課程資料】正點原子《ESP32基礎(chǔ)及項目實戰(zhàn)入門》培訓(xùn)課程資料上線!

    正點原子《ESP32基礎(chǔ)及項目實戰(zhàn)入門》全新課程資料上線啦!正點原子工程師手把手教你學(xué)!熟練掌握ESP-IDF開發(fā),突破ESP32入門難題! 一、課程介紹課程
    發(fā)表于 09-24 17:59

    PyTorch深度學(xué)習(xí)開發(fā)環(huán)境搭建指南

    PyTorch作為一種流行的深度學(xué)習(xí)框架,其開發(fā)環(huán)境的搭建對于深度學(xué)習(xí)研究和開發(fā)來說至關(guān)重要
    的頭像 發(fā)表于 07-16 18:29 ?1161次閱讀

    深度學(xué)習(xí)與nlp的區(qū)別在哪

    深度學(xué)習(xí)和自然語言處理(NLP)是計算機科學(xué)領(lǐng)域中兩個非常重要的研究方向。它們之間既有聯(lián)系,也有區(qū)別。本文將介紹深度學(xué)習(xí)與NLP的區(qū)別。
    的頭像 發(fā)表于 07-05 09:47 ?994次閱讀

    深度學(xué)習(xí)常用的Python庫

    深度學(xué)習(xí)作為人工智能的一個重要分支,通過模擬人類大腦中的神經(jīng)網(wǎng)絡(luò)來解決復(fù)雜問題。Python作為一種流行的編程語言,憑借其簡潔的語法和豐富的庫支持,成為了深度
    的頭像 發(fā)表于 07-03 16:04 ?677次閱讀

    深度學(xué)習(xí)與傳統(tǒng)機器學(xué)習(xí)的對比

    在人工智能的浪潮中,機器學(xué)習(xí)深度學(xué)習(xí)無疑是兩大核心驅(qū)動力。它們各自以其獨特的方式推動著技術(shù)的進(jìn)步,為眾多領(lǐng)域帶來了革命性的變化。然而,盡管它們都屬于機器學(xué)習(xí)的范疇,但
    的頭像 發(fā)表于 07-01 11:40 ?1466次閱讀

    FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈鶪PU

    現(xiàn)場可編程門陣列 (FPGA) 解決了 GPU 在運行深度學(xué)習(xí)模型時面臨的許多問題 在過去的十年里,人工智能的再一次興起使顯卡行業(yè)受益匪淺。英偉達(dá) (Nvidia) 和 AMD 等公司的股價也大幅
    發(fā)表于 03-21 15:19

    fpga學(xué)習(xí)需要具備哪些課程

    FPGA(Field Programmable Gate Array)學(xué)習(xí)需要具備一系列的課程知識和實踐技能
    的頭像 發(fā)表于 03-14 15:51 ?1245次閱讀
    主站蜘蛛池模板: zzji国产精品视频| 国产成人精品日本亚洲语言| 六月丁香深爱六月综合激情| 欧美黑粗| 亚色综合| 91久久另类重口变态| 久久精品夜色国产| 日本免费成人| 亚洲 欧美 另类 吹潮| 午夜影院免费入口| 国产精品你懂的在线播放| 女人精aaaa片一级毛片女女| 色综合久久综合| 午夜两性网| 一级aaa毛片| 精品国产污污免费网站入口| 欧美 激情 在线| 2021精品国产综合久久| 久久人人爽爽爽人久久久| 日日夜夜操操| 天天干夜夜看| 午夜免费福利网站| 看黄a大片 免费| 欧美区在线| 综合激情网五月| 伊人久久大香线蕉观看| 高hnp汁水bl总受软萌受| 日本口工禁漫画无遮挡全彩| h小视频在线观看网| 黄篇网站在线观看| 91精品啪在线观看国产日本| a亚洲| 最近2018中文字幕免费看在线| 性欧美暴力猛交69hd| 欧美18同性gay视频| 中文字幕v视界影院| 国产理论视频| 又粗又大又猛又爽免费视频| 性做久久久久久久免费观看| 男人午夜网站| 最新国产在线播放|