在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種分布式深度學(xué)習(xí)網(wǎng)絡(luò),為不同機(jī)構(gòu)間的合作提供了新思路

zhKF_jqr_AI ? 來(lái)源:未知 ? 作者:李倩 ? 2018-09-02 09:54 ? 次閱讀

數(shù)據(jù)包含重要的隱私,尤其是醫(yī)療數(shù)據(jù)。但在訓(xùn)練用于醫(yī)療的神經(jīng)網(wǎng)絡(luò)時(shí),數(shù)據(jù)又是不可或缺的。為了解決數(shù)據(jù)共享帶來(lái)的隱私破壞問題,斯坦福大學(xué)的研究人員提出了一種分布式深度學(xué)習(xí)網(wǎng)絡(luò),為不同機(jī)構(gòu)間的合作提供了新思路。

隨著強(qiáng)大的圖形處理單元的進(jìn)步,深度學(xué)習(xí)在主流任務(wù)中取得了很大突破,例如圖像分類、語(yǔ)音識(shí)別和自然語(yǔ)言處理。由于神經(jīng)網(wǎng)絡(luò)能高效處理形狀識(shí)別,深度學(xué)習(xí)也在臨床醫(yī)療診斷領(lǐng)域給與了一定支持。最近的研究表明,深度學(xué)習(xí)在檢測(cè)糖尿病視網(wǎng)膜病變、分辨皮膚病變、預(yù)測(cè)神經(jīng)膠質(zhì)瘤變異以及評(píng)估醫(yī)療記錄等方面都有很大潛力。深度學(xué)習(xí)模型可以輸入原始數(shù)據(jù),然后經(jīng)過(guò)多層轉(zhuǎn)換,計(jì)算出分類標(biāo)簽。這些轉(zhuǎn)換通常有多個(gè)維度,也使得算法學(xué)習(xí)更多復(fù)雜的表示。

在醫(yī)療領(lǐng)域,想應(yīng)用深度學(xué)習(xí),主要問題就是大量的訓(xùn)練數(shù)據(jù),尤其是當(dāng)圖像之間的差別很細(xì)微,或者研究群體之間的差異性很大的時(shí)候,數(shù)據(jù)就更需要多樣化了。然而,來(lái)自病人的樣本數(shù)量通常很少,罕見病就更少了。樣本規(guī)模小,可能會(huì)導(dǎo)致神經(jīng)網(wǎng)絡(luò)模型的泛化能力降低。

針對(duì)上述問題,一種可能的解決方法就是進(jìn)行多中心研究(multicenter study),這種方法可以增加樣本規(guī)模,同時(shí)豐富樣本多樣性。理想情況下,病人的數(shù)據(jù)在研究中心是共享的,算法能利用這些數(shù)據(jù)訓(xùn)練。但是,這種方法有幾個(gè)問題。首先,如果病人的數(shù)據(jù)需要很大的存儲(chǔ)空間(例如高分辨率的圖像),要想分享這些數(shù)據(jù)就很麻煩了。其次,共享病人的數(shù)據(jù)還面臨著法律和道德的障礙,想要大規(guī)模傳播數(shù)據(jù)似乎不太可能。另外,病人的數(shù)據(jù)非常珍貴,很多機(jī)構(gòu)可能根本不想貢獻(xiàn)出去。

在這種情況下,與其直接分享病人數(shù)據(jù),我們想到了更吸引人的方法,即對(duì)訓(xùn)練過(guò)的深度學(xué)習(xí)模型進(jìn)行分散。模型本身對(duì)存儲(chǔ)空間的需求比病人數(shù)據(jù)低得多,并且不需要存儲(chǔ)與病人有關(guān)的各類信息。因此,在多個(gè)機(jī)構(gòu)間的分布式深度學(xué)習(xí)模型可以克服分散的病人數(shù)據(jù)帶來(lái)的弱點(diǎn)。不過(guò),據(jù)我們了解,能執(zhí)行這一任務(wù)的方法目前還沒有人研究過(guò)。

關(guān)于分布式訓(xùn)練,目前有好幾種方法。對(duì)模型取平均值指的是,分離的模型在不同的數(shù)據(jù)上進(jìn)行訓(xùn)練,模型每隔幾個(gè)mini-batches就會(huì)計(jì)算一次平均權(quán)重。在非同步的隨機(jī)梯度下降上,分離的模型在分離的數(shù)據(jù)上訓(xùn)練,而每隔分離模型的梯度就會(huì)轉(zhuǎn)移到中心模型上。然而,這些方法都是為了優(yōu)化訓(xùn)練速度而提出的。雖然在多個(gè)機(jī)構(gòu)間,對(duì)這些數(shù)據(jù)進(jìn)行平行訓(xùn)練是可能做到的,但同樣會(huì)出現(xiàn)重要的邏輯挑戰(zhàn)。如果各個(gè)機(jī)構(gòu)減的網(wǎng)絡(luò)連接速度不同,或者有不同的深度學(xué)習(xí)硬件,就會(huì)有挑戰(zhàn)性。雖然非平行的分布式訓(xùn)練方法會(huì)比平行式的要慢,但可以避免這些邏輯上的問題。

在這篇論文中,我們利用多種非平行的訓(xùn)練方法,模擬了在各機(jī)構(gòu)間分布的深度學(xué)習(xí)模型。我們比較了在中心數(shù)據(jù)上訓(xùn)練過(guò)的深度學(xué)習(xí)模型結(jié)果。我們?cè)谌齻€(gè)數(shù)據(jù)集上對(duì)這一模擬結(jié)果做出展示:視網(wǎng)膜眼底照片、乳房X光片和ImageNet。主要評(píng)估的目的有三點(diǎn):

分布式深度學(xué)習(xí)模型的性能與共享病人數(shù)據(jù)有何不同;

當(dāng)向某個(gè)機(jī)構(gòu)發(fā)生變化時(shí),分布式深度學(xué)習(xí)模型的性能會(huì)不會(huì)衰減;

當(dāng)機(jī)構(gòu)數(shù)量越來(lái)越大,分布式深度學(xué)習(xí)模型的性能會(huì)不會(huì)更好。

我們的方法

收集圖像

我們從Kaggle的糖尿病視網(wǎng)膜病變的挑戰(zhàn)賽中獲得了35126張彩色數(shù)字化的視網(wǎng)膜眼底照片,它們的質(zhì)量、像素各不相同。我們用挑戰(zhàn)賽冠軍Ben Graham的方法對(duì)其進(jìn)行了處理,尺寸改為256×256,打上表示病情嚴(yán)重程度的標(biāo)簽。

我們的網(wǎng)絡(luò)架構(gòu)是一個(gè)34層的殘差網(wǎng)絡(luò),如圖1所示:

圖1

網(wǎng)絡(luò)在NVIDIA Tesla P100的圖形處理單元上運(yùn)行。網(wǎng)絡(luò)的權(quán)重通過(guò)一個(gè)隨機(jī)梯度下降算法進(jìn)行優(yōu)化,mini-batch的尺寸為32。

數(shù)據(jù)集是隨機(jī)采集的,來(lái)自四個(gè)不同的醫(yī)療結(jié)構(gòu),每個(gè)機(jī)構(gòu)有n=1500名病人,類別分布的數(shù)量相同。

圖2

我們?cè)诙鄠€(gè)不同的訓(xùn)練方法上進(jìn)行了測(cè)試,并比較了結(jié)果。第一種方法是讓神經(jīng)網(wǎng)絡(luò)在每個(gè)機(jī)構(gòu)上單獨(dú)訓(xùn)練,假設(shè)沒有其他機(jī)構(gòu)與之合作。第二種方法是通過(guò)將所有病人的數(shù)據(jù)共享(圖3A)。第三種方法是先將模型在各個(gè)機(jī)構(gòu)上單獨(dú)訓(xùn)練,然后計(jì)算輸出結(jié)果的平均值(圖3B)。第四種方法是將一個(gè)模型在單一機(jī)構(gòu)的數(shù)據(jù)上訓(xùn)練,直到達(dá)到驗(yàn)證損失不再下降,然后再訓(xùn)練下一個(gè)機(jī)構(gòu)(單一權(quán)重轉(zhuǎn)移,圖3C)。除此之外,還有一種方法是讓一個(gè)模型在每個(gè)機(jī)構(gòu)上訓(xùn)練一定次數(shù)之后在轉(zhuǎn)移到下一個(gè)機(jī)構(gòu)上(循環(huán)權(quán)重轉(zhuǎn)移,圖3D)。

圖3

實(shí)驗(yàn)結(jié)果

首先是模型在單一的機(jī)構(gòu)上的視網(wǎng)膜眼底數(shù)據(jù)集訓(xùn)練結(jié)果,表現(xiàn)的性能很不好,平均測(cè)試精度只有56.3%

其次,在中心共享數(shù)據(jù)集上訓(xùn)練后,網(wǎng)絡(luò)的性能有所提升,測(cè)試精度達(dá)到了78.7%

平均法下,模型的測(cè)試精度為60%,單一權(quán)重轉(zhuǎn)移下的精度為68.1%,循環(huán)權(quán)重轉(zhuǎn)移的精度為76.1%。

結(jié)論

在這項(xiàng)研究中,我們解決了如何在不共享病人數(shù)據(jù)的情況下訓(xùn)練深度學(xué)習(xí)模型的方法。最終發(fā)現(xiàn),循環(huán)權(quán)重轉(zhuǎn)移方法和共享數(shù)據(jù)的方法結(jié)果差不多,說(shuō)明共享病人數(shù)據(jù)并非是創(chuàng)建模型的唯一方法。這項(xiàng)發(fā)現(xiàn)對(duì)合作型的深度學(xué)習(xí)研究大有幫助。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:醫(yī)療領(lǐng)域福音:不必共享數(shù)據(jù),遷移權(quán)重也能訓(xùn)練出好模型

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    分布式軟件系統(tǒng)

    計(jì)算機(jī)硬件的配置方式和相應(yīng)的功能配置方式。它是一種多處理器的計(jì)算機(jī)系統(tǒng),各處理器通過(guò)互連網(wǎng)絡(luò)構(gòu)成統(tǒng)的系統(tǒng)。系統(tǒng)采用分布式計(jì)算結(jié)構(gòu),即把原來(lái)系統(tǒng)內(nèi)中央處理器處理的任務(wù)分散給相應(yīng)的處理器
    發(fā)表于 07-22 14:53

    輕量級(jí)深度學(xué)習(xí)網(wǎng)絡(luò)是什么

    輕量級(jí)深度學(xué)習(xí)網(wǎng)絡(luò)概覽
    發(fā)表于 04-23 14:53

    請(qǐng)問怎么設(shè)計(jì)一種分布式無(wú)線測(cè)控系統(tǒng)?

    怎么設(shè)計(jì)一種分布式無(wú)線測(cè)控系統(tǒng)?無(wú)線測(cè)控網(wǎng)絡(luò)系統(tǒng)具有哪些優(yōu)點(diǎn)及應(yīng)用?
    發(fā)表于 04-13 06:29

    一種獨(dú)特的DCS分布式系統(tǒng)的測(cè)試方案

    本文介紹一種獨(dú)特的DCS分布式系統(tǒng)的測(cè)試方案,對(duì)分布個(gè)網(wǎng)絡(luò)中多臺(tái)電腦上的各個(gè)系統(tǒng)模塊(每臺(tái)電腦運(yùn)行多個(gè)系統(tǒng)模塊)同時(shí)測(cè)試,監(jiān)視其覆蓋率、
    發(fā)表于 04-26 06:57

    一種基于FPGA分布式算法的濾波器設(shè)計(jì)的實(shí)現(xiàn)方案

    分布式的濾波器算法是什么?一種基于FPGA分布式算法的濾波器設(shè)計(jì)實(shí)現(xiàn)
    發(fā)表于 04-29 07:13

    怎么實(shí)現(xiàn)分布式測(cè)試系統(tǒng)的一種網(wǎng)絡(luò)通信設(shè)計(jì)

    怎么實(shí)現(xiàn)分布式測(cè)試系統(tǒng)的一種網(wǎng)絡(luò)通信設(shè)計(jì)?
    發(fā)表于 05-08 09:48

    如何去實(shí)現(xiàn)一種分布式計(jì)算技術(shù)

    分布式計(jì)算技術(shù)是什么?如何去實(shí)現(xiàn)一種分布式計(jì)算技術(shù)?
    發(fā)表于 09-24 07:52

    探討深度學(xué)習(xí)在嵌入設(shè)備上的應(yīng)用

    下面來(lái)探討深度學(xué)習(xí)在嵌入設(shè)備上的應(yīng)用,具體如下:1、深度學(xué)習(xí)的概念源于人工神經(jīng)
    發(fā)表于 10-27 08:02

    文帶你看懂分布式軟總線在家庭場(chǎng)景的應(yīng)用

    終端融為體,形成超級(jí)終端,消費(fèi)者帶來(lái)全場(chǎng)景智慧生活新體驗(yàn)。如何讓各種不同的設(shè)備融合為體,形成超級(jí)終端呢?這就需要分布式軟總線來(lái)實(shí)現(xiàn)。分布式
    發(fā)表于 01-06 11:32

    基于Keras搭建的深度學(xué)習(xí)網(wǎng)絡(luò)示例

    Python軟件基金會(huì)成員(Contibuting Member)Vihar Kurama簡(jiǎn)明扼要地介紹深度學(xué)習(xí)的基本概念,同時(shí)提供
    的頭像 發(fā)表于 06-06 11:21 ?8310次閱讀

    Apache Spark的分布式深度學(xué)習(xí)框架BigDL的概述

    該視頻概述Apache Spark *的BigDL分布式深度學(xué)習(xí)框架。
    的頭像 發(fā)表于 10-30 06:41 ?3276次閱讀

    英偉達(dá)希望通過(guò)宣布的一種新的分布式學(xué)習(xí)技術(shù)

    Clara FL是用于分布式AI培訓(xùn)的參考應(yīng)用程序,旨在在Nvidia最近發(fā)布的EGX智能邊緣計(jì)算平臺(tái)上運(yùn)行。這些系統(tǒng)能夠在數(shù)據(jù)不存在的“網(wǎng)絡(luò)邊緣”本地進(jìn)行深度學(xué)習(xí)培訓(xùn)。
    的頭像 發(fā)表于 03-24 15:44 ?1780次閱讀

    一種新猜想為黑洞能量的提取提供一種新思路

    為了“偷”到黑洞的能量,科學(xué)家們盡情發(fā)揮著奇思妙想。最近,哥倫比亞大學(xué)天體物理學(xué)家盧卡?科米索(Luca Comisso)與智利阿道夫伊巴涅斯大學(xué)物理學(xué)家費(fèi)利佩?A?阿森霍(Felipe A.Asenjo)合作項(xiàng)研究,提出了一種
    的頭像 發(fā)表于 03-01 14:05 ?1867次閱讀

    一種分布式網(wǎng)絡(luò)掃描架構(gòu)和任務(wù)調(diào)度算法

    網(wǎng)絡(luò)掃描是網(wǎng)絡(luò)安全評(píng)測(cè)和網(wǎng)絡(luò)管理的重要手段。針對(duì)傳統(tǒng)單點(diǎn)主動(dòng)掃描方法與Zmap、Nmap工具均存在帶寬資源利用受限、掃描效率低與CPU使用率高等問題,結(jié)合消息中間件的分布式
    發(fā)表于 03-16 13:53 ?19次下載
    <b class='flag-5'>一種</b><b class='flag-5'>分布式</b><b class='flag-5'>網(wǎng)絡(luò)</b>掃描架構(gòu)和任務(wù)調(diào)度算法

    使用TensorFlow建立深度學(xué)習(xí)和機(jī)器學(xué)習(xí)網(wǎng)絡(luò)

    教你使用TensorFlow建立深度學(xué)習(xí)和機(jī)器學(xué)習(xí)網(wǎng)絡(luò)。
    發(fā)表于 03-26 09:44 ?18次下載
    主站蜘蛛池模板: 91视频综合网| 国产农村乱色xxxx| 伊人天天干| 五月天天色| 免费又爽又黄的禁片1000部| 在线免费观看一级毛片| 热久热| v视界影院最新网站| 5060精品国产福利午夜| 免费啪啪网| 国产成人综合亚洲怡春院| jlzzjlzzjlzz亚洲女| 免费91视频| 久久精品亚洲热综合一本奇米| 正在播放91| 色妞基地| 黄色片啪啪| 亚洲欧美国产五月天综合| 视频在线免费| 日本高清在线3344www| 日本不卡在线观看| 亚洲国产成人在人网站天堂| 日韩免费视频一区| 色播久久| 狠狠色丁香婷婷综合视频 | 看黄网站在线| 成人一级毛片| 国产亚洲一区二区三区啪| 伊人亚洲综合网成人| 日日摸人人拍人人澡| 河南毛片| 天天看夜夜操| 免费我看视频在线观看| 中国一级特黄aa毛片大片| 日韩毛片在线影视| 国产三区视频| 人人干日日操| 中国china体内裑精亚洲毛片| 亚洲国产精品第一区二区| 欧美a性| 午夜在线观看网站|