在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一本書來幫助你入門深度學(xué)習(xí)生成模型

DPVg_AI_era ? 來源:lq ? 2019-08-02 08:57 ? 次閱讀

如果你想要一本書來幫助你入門深度學(xué)習(xí)生成模型,那么最新出版的“Generative Deep Learning”一定是不二之選。本書囊括了包括BERT/GPT-2, StyleGAN等近五年來最先進(jìn)的GAN,帶你走進(jìn)生成模型的奇妙世界。

現(xiàn)在是2019年7月20日UTC時間20:17。

50年前的今天,尼爾·阿姆斯特朗和巴茲·奧爾德林駕駛駕駛的登月艙“鷹”號降落在月球上。這是一項偉大的工程壯舉,充滿著勇氣和堅定的決心。

快進(jìn)50年,將這些宇航員帶到月球表面去的阿波羅制導(dǎo)計算機(AGC)的處理能力就在你的口袋里——事實上,iPhone 6的計算能力就足以引導(dǎo)1.2億個阿波羅11號飛船登月,而且是在同一時間。

這一事實并沒有真正公正地反映AGC的輝煌。由于摩爾定律,你可以選擇任何計算機器,也可以說50年后,將會有一臺機器能夠比它的運行速度快22?倍。

編寫AGC代碼的軟件團隊的負(fù)責(zé)人是瑪格麗特·漢密爾頓(Margaret Hamilton),她沒有把那時的硬件限制看作是一種障礙,而是一種挑戰(zhàn)。她利用當(dāng)時可用的資源完成了不可想象的目標(biāo)。

Margaret Hamilton

這讓我想到…

《生成式深度學(xué)習(xí)》新書

459天前,我收到來自O(shè)'Reilly Media的消息,詢問我是否有興趣寫一本書。當(dāng)時我覺得這似乎是個好主意,所以答應(yīng)了,并決定寫一本關(guān)于生成模型的最新指南——特別是如何構(gòu)建最先進(jìn)的深度學(xué)習(xí)模型,這樣的模型可以繪畫、寫作、作曲和玩游戲。

更重要的是,我希望這本書能讓讀者深入了解生成式深度學(xué)習(xí),并構(gòu)建能夠做出各種令人驚嘆的事情的模型,而不需要大量昂貴且耗時的計算資源。

我很高興地宣布,這本書現(xiàn)在可以可以通過亞馬遜購買,也可以在O’Reilly網(wǎng)站上購買電子版。(注:作者David Foster是Applied Data Science的聯(lián)合創(chuàng)始人)

我堅信,掌握任何技術(shù)的秘訣都是首先解決小問題,但是要了解每一行代碼背后的原理。

如果你一開始就搞龐大的數(shù)據(jù)集和模型,那么會需要一天而不是一個小時的時間來運行,你不會學(xué)到更多的東西——只是將學(xué)習(xí)的速度放慢了24倍。

如果說登月教會了我們什么的話,那就是真正令人驚奇的事情是可以在非常少的計算資源下實現(xiàn)的,我的目標(biāo)是讓你在讀完這本書后,對生成模型有同樣的感受。

封面的鸚鵡是怎么回事?

為O’Reilly寫書最棒的一點是,他們會在你的書的封面上畫一只動物——我得到了一只畫好的長尾小鸚鵡,我親切地給它取名為Neil Wingstrong。

長尾小鸚鵡Neil Wingstrong

那么現(xiàn)在鸚鵡已經(jīng)著陸,你還能從這本書中期待什么呢?

這本書是關(guān)于什么的?

這是一本關(guān)于生成模型的動手指南。

它將帶你了解基本生成模型的基礎(chǔ)知識,然后逐步構(gòu)建更復(fù)雜的模型——始終使用實際示例、架構(gòu)圖和代碼。

這本書適合任何想要深入了解當(dāng)前熱門的生成模型的人。你不需要深度學(xué)習(xí)的先驗知識,所有代碼示例都是用Python編寫的。

這本書涵蓋哪些內(nèi)容?

我試圖涵蓋過去5年來所有的重要生成模型。

如下面的時間軸所示。

全書分為兩部分,章節(jié)提綱如下:

第一部分:生成式深度學(xué)習(xí)簡介

本書的前四章旨在介紹開始構(gòu)建生成式深度學(xué)習(xí)模型所需的核心技術(shù)。

1. 生成模型

我們對生成建模領(lǐng)域進(jìn)行了廣泛的研究,并考慮了我們試圖從概率角度解決的問題的類型。然后,我們探索了基本概率生成模型的第一個例子,并分析為什么隨著生成任務(wù)的復(fù)雜性增加,可能需要部署深度學(xué)習(xí)技術(shù)。

2. 深度學(xué)習(xí)

本章將指導(dǎo)你開始構(gòu)建更復(fù)雜的生成模型所需的深度學(xué)習(xí)工具和技術(shù)。我們將介紹Keras,一個用于構(gòu)建神經(jīng)網(wǎng)絡(luò)的框架,可用于構(gòu)建和訓(xùn)練一些在文獻(xiàn)中發(fā)表的最先進(jìn)的深度神經(jīng)網(wǎng)絡(luò)架構(gòu)。

3.變分自動編碼器

在本章中,我們將介紹第一個生成深度學(xué)習(xí)模型——變分自動編碼器。這一強大的技術(shù)將允許我們從頭開始生成逼真的面孔,并改變現(xiàn)有的圖像——例如,添加微笑,或改變某人頭發(fā)的顏色。

4. 生成對抗網(wǎng)絡(luò)(GANs)

本章探討了近年來最成功的生成模型技術(shù)之一——生成對抗性網(wǎng)絡(luò)。這個用于構(gòu)建生成模型問題的優(yōu)雅框架是大多數(shù)最先進(jìn)的生成模型背后的基礎(chǔ)引擎。我們將學(xué)習(xí)它的微調(diào)的方式,從而不斷推進(jìn)生成模型能夠?qū)崿F(xiàn)的邊界。

第二部分:教機器繪畫、寫作、作曲和玩游戲

第二部分提供了一組案例研究,展示了如何將生成建模技術(shù)應(yīng)用于特定的任務(wù)。

5. 繪畫

在本章中,我們將研究兩種與機器繪畫有關(guān)的技術(shù)。首先我們來看看CycleGAN,顧名思義,它是GAN架構(gòu)的一個改編,允許模型學(xué)習(xí)如何將照片轉(zhuǎn)換成特定風(fēng)格的繪畫(反之亦然)。我們還探索了包含在許多照片編輯應(yīng)用程序中的神經(jīng)風(fēng)格遷移技術(shù),這種技術(shù)允許你將一幅畫的風(fēng)格轉(zhuǎn)移到一張照片上,給人一種這是同一位藝術(shù)家的畫的印象。

6. 寫作

在本章中,我們將注意力轉(zhuǎn)向機器寫作,這是一項對圖像生成提出不同挑戰(zhàn)的任務(wù)。本章介紹了遞歸神經(jīng)網(wǎng)絡(luò)(RNN)的結(jié)構(gòu),它允許我們處理涉及序列數(shù)據(jù)的問題。我們還將了解encoder–decoder 架構(gòu)是如何工作的,并構(gòu)建一個問答生成器。

7. 作曲

本章著眼于音樂生成,這也是一個序列生成問題,但提出了額外的挑戰(zhàn),如建模音樂的音高和節(jié)奏。我們將了解許多用于文本生成的技術(shù)如何可以應(yīng)用于音樂生成任務(wù),但我們還將探索一個稱為MuseGAN的深度學(xué)習(xí)架構(gòu),它將第4章(關(guān)于GAN)中的思想應(yīng)用于音樂數(shù)據(jù)。

8. 玩游戲

本章展示了生成模型如何應(yīng)用于其他機器學(xué)習(xí)領(lǐng)域,如強化學(xué)習(xí)。最近幾年最激動人心的一篇論文是“世界模型”,作者展示了一個生成模型可以用作智能體訓(xùn)練的環(huán)境,因此本質(zhì)上允許智能體對未來可能的場景“做夢”,想象如果采取某些行動會發(fā)生什么,完全在其環(huán)境的概念模型中。

9. 生成模型的未來

本章是對當(dāng)前生成模型的概述,并回顧了在本書中介紹的技術(shù)。我們還將放眼未來,探索今天可用的最先進(jìn)技術(shù)如GPT-2和BigGAN可能如何改變我們創(chuàng)造的方式,我們是否能創(chuàng)造一個人造實體,它可以生產(chǎn)內(nèi)容,創(chuàng)造性地生成藝術(shù)作品、文學(xué)和音樂。

10. 結(jié)論

本章關(guān)于為什么生成式深度學(xué)習(xí)在未來5-10年可能成為機器學(xué)習(xí)最重要、最有影響力的領(lǐng)域。

總結(jié)

在一個事實和虛構(gòu)不那么容易分離的世界里,至關(guān)重要的是有一些工程師能夠詳細(xì)地理解生成模型的工作原理,并且不會因為技術(shù)限制而卻步。

希望這本書能幫助你了解當(dāng)前最先進(jìn)的技術(shù),同時也能讓你享受閱讀的樂趣。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    1950

    瀏覽量

    73780
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5510

    瀏覽量

    121336

原文標(biāo)題:O'Reilly新書:《生成式深度學(xué)習(xí)》,近5年最先進(jìn)GAN一網(wǎng)打全!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    【「具身智能機器人系統(tǒng)」閱讀體驗】+兩互為支持的

    如何使用PyTorch進(jìn)行數(shù)字圖像處理,它借助攝像頭獲取視頻的圖像信息,然后通過已有的圖像識別框架模型經(jīng)深度學(xué)習(xí)和優(yōu)化以達(dá)到更精準(zhǔn)的識別結(jié)果,從而為進(jìn)
    發(fā)表于 01-01 15:50

    【「大模型啟示錄」閱讀體驗】對本書的初印象

    很高興能夠申請到《大模型啟示錄》一書,作為名在讀大學(xué)生,我深感榮幸。在日常生活中,人工智能(AI)的應(yīng)用已經(jīng)變得無處不在,它不僅幫助我們完成
    發(fā)表于 12-16 14:05

    請問ADC的電源產(chǎn)生的噪聲為何會反應(yīng)在ADC輸出數(shù)據(jù)的頻譜上?

    請問ADC的電源產(chǎn)生的噪聲為何會反應(yīng)在ADC輸出數(shù)據(jù)的頻譜上,有沒有講這類原理的? 因為看了很多論文,只是給出了結(jié)論,沒有說為什么。 求大家推薦一本書,謝謝。
    發(fā)表于 12-05 08:09

    【書籍評測活動NO.52】基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化

    首先需要了解大模型著名的“幻覺”問題。 “幻覺”指的是大模型在試圖生成內(nèi)容或回答問題時,輸出的結(jié)果不完全正確甚至錯誤,即通常所說的“一本正經(jīng)地胡說八道”。 這種“幻覺”可以體現(xiàn)為對事實
    發(fā)表于 12-04 10:50

    名單公布!【書籍評測活動NO.49】大模型啟示錄:一本AI應(yīng)用百科全書

    大家了解全球最領(lǐng)先的大模型場景。 本書一本AI應(yīng)用百科全書 ,給予讀者落地大模型時的啟發(fā)。 本書的作者來自大
    發(fā)表于 10-28 15:34

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的個熱門研究方向。以下是些FPGA加速
    的頭像 發(fā)表于 10-25 09:22 ?284次閱讀

    AI大模型深度學(xué)習(xí)的關(guān)系

    AI大模型深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 深度
    的頭像 發(fā)表于 10-23 15:25 ?1020次閱讀

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學(xué)習(xí)

    些局限性。例如,模型可能無法完全理解文本中的深層含義和語境信息;同時,由于訓(xùn)練數(shù)據(jù)可能存在偏差和噪聲,生成的答案也可能存在不準(zhǔn)確或誤導(dǎo)性的情況。 總結(jié)以下,大語言模型通過
    發(fā)表于 08-02 11:03

    深度學(xué)習(xí)模型量化方法

    深度學(xué)習(xí)模型量化是種重要的模型輕量化技術(shù),旨在通過減少網(wǎng)絡(luò)參數(shù)的比特寬度減小
    的頭像 發(fā)表于 07-15 11:01 ?521次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>量化方法

    深度學(xué)習(xí)中的模型權(quán)重

    深度學(xué)習(xí)充滿無限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型
    的頭像 發(fā)表于 07-04 11:49 ?1588次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    深度學(xué)習(xí)模型訓(xùn)練是個復(fù)雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計算資源和精心設(shè)計的算法。訓(xùn)練深度
    的頭像 發(fā)表于 07-01 16:13 ?1396次閱讀

    深度學(xué)習(xí)模型優(yōu)化與調(diào)試方法

    深度學(xué)習(xí)模型在訓(xùn)練過程中,往往會遇到各種問題和挑戰(zhàn),如過擬合、欠擬合、梯度消失或爆炸等。因此,對深度學(xué)習(xí)
    的頭像 發(fā)表于 07-01 11:41 ?904次閱讀

    【大語言模型:原理與工程實踐】探索《大語言模型原理與工程實踐》

    《大語言模型》是一本深入探討人工智能領(lǐng)域中語言模型的著作。作者通過對語言模型的基本概念、基礎(chǔ)技術(shù)、應(yīng)用場景分析,為讀者揭開了這領(lǐng)域的神秘面
    發(fā)表于 04-30 15:35

    【RTC程序設(shè)計:實時音視頻權(quán)威指南】本書概覽

    本書內(nèi)容看一本書的內(nèi)容從其目錄即可看出內(nèi)容與結(jié)構(gòu),從本書目錄看其內(nèi)容非常豐富充實。書中第章介紹了些計算機的基本知識。然后第二章介紹了視
    發(fā)表于 04-21 17:09

    《Linux常用命令自學(xué)手冊》工具永遠(yuǎn)是常備的秘籍

    幫助。非常適合作為種你要學(xué)習(xí)開發(fā)的Linux系統(tǒng)的基礎(chǔ)工具使用。 《Linux常用命令自學(xué)手冊》是一本非常值得
    發(fā)表于 01-29 19:42
    主站蜘蛛池模板: 日本aaaaa毛片动漫| 四虎永久在线精品免费影视| 国产免费私拍一区二区三区| 久久人精品| 三级网在线| 亚洲天堂三级| 久久精品re| 亚洲综合资源| 欧美亚洲综合另类型色妞| 久久99热精品免费观看k影院| 五月天婷婷爱| 天天干狠狠插| 久久精品隔壁老王影院| 2021国产精品| 日本videosgratis教师69| 国产香蕉免费精品视频| 91天天干| 67194最新网址| 一区二区在线免费视频| 亚洲婷婷综合中文字幕第一页| 欧洲精品不卡1卡2卡三卡四卡| 一级特黄性生活大片免费观看| 中日韩精品视频在线观看| 中文天堂最新版在线中文 | 妇少香港三日本三级视频| 伊人网视频| 加勒比一本一道在线| 丁香婷婷综合五月六月| 在线视频一区二区三区| 高清不卡免费一区二区三区| 2020国产v亚洲v天堂高清| 99久久久久久久| 色婷婷婷丁香亚洲综合不卡| 精品亚洲欧美无人区乱码| 国产色网址| 天天干天天日天天射天天操毛片| 五月天婷婷在线视频国产在线| 国产精品久久久久影视不卡| 久婷婷| 日本中文字幕在线播放| 亚洲人成网站在线在线|