在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

半監督學習最基礎的3個概念

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:Neeraj varshney ? 2020-11-02 16:14 ? 次閱讀

導讀

今天給大家介紹半監督學習中的3個最基礎的概念:一致性正則化,熵最小化和偽標簽,并介紹了兩個經典的半監督學習方法。

沒看一的點這里哈:半監督學習入門基礎(一)

半監督學習 (SSL) 是一種非常有趣的方法,用來解決機器學習中缺少標簽數據的問題。SSL利用未標記的數據和標記的數據集來學習任務。SSL的目標是得到比單獨使用標記數據訓練的監督學習模型更好的結果。這是關于半監督學習的系列文章的第2部分,詳細介紹了一些基本的SSL技術。

一致性正則化,熵最小化,偽標簽

SSL的流行方法是在訓練期間往典型的監督學習中添加一個新的損失項。通常使用三個概念來實現半監督學習,即一致性正則化、熵最小化和偽標簽。在進一步討論之前,讓我們先理解這些概念。

一致性正則化強制數據點的實際擾動不應顯著改變預測器的輸出。簡單地說,模型應該為輸入及其實際擾動變量給出一致的輸出。我們人類對于小的干擾是相當魯棒的。例如,給圖像添加小的噪聲(例如改變一些像素值)對我們來說是察覺不到的。機器學習模型也應該對這種擾動具有魯棒性。這通常通過最小化對原始輸入的預測與對該輸入的擾動版本的預測之間的差異來實現。

模型對輸入x及其擾動x^的一致性度量

d(.,.) 可以是均方誤差或KL散度或任何其他距離度量。

一致性正則化是利用未標記數據找到數據集所在的平滑流形的一種方法。這種方法的例子包括π模型、Temporal Ensembling,Mean Teacher,Virtual Adversarial Training等。

熵最小化鼓勵對未標記數據進行更有信心的預測,即預測應該具有低熵,而與ground truth無關(因為ground truth對于未標記數據是未知的)。讓我們從數學上理解下這個。

熵的計算

這里,K是類別的數量,是模型對x預測是否屬于類別k的置信度。

此外,輸入示例中所有類的置信度之和應該為1。這意味著,當某個類的預測值接近1,而其他所有類的預測值接近0時,熵將最小化。因此,這個目標鼓勵模型給出高可信度的預測。

理想情況下,熵的最小化將阻止決策邊界通過附近的數據點,否則它將被迫產生一個低可信的預測。請參閱下圖以更好地理解此概念。

由不同的半監督學習方法生成的決策邊界

偽標簽是實現半監督學習最簡單的方法。一個模型一開始在有標記的數據集上進行訓練,然后用來對沒有標記的數據進行預測。它從未標記的數據集中選擇那些具有高置信度(高于預定義的閾值)的樣本,并將其預測視為偽標簽。然后將這個偽標簽數據集添加到標記數據集,然后在擴展的標記數據集上再次訓練模型。這些步驟可以執行多次。這和自訓練很相關。

在現實中視覺和語言上擾動的例子

視覺:

翻轉,旋轉,裁剪,鏡像等是圖像常用的擾動。

語言

反向翻譯是語言中最常見的擾動方式。在這里,輸入被翻譯成不同的語言,然后再翻譯成相同的語言。這樣就獲得了具有相同語義屬性的新輸入。

NLP中的反向翻譯

半監督學習方法

π model:

這里的目標是一致性正則化。

π模型鼓勵模型對兩個相同的輸入(即同一個輸入的兩個擾動變量)輸出之間的一致性。

π模型有幾個缺點,首先,訓練計算量大,因為每個epoch中單個輸入需要送到網絡中兩次。第二,訓練目標zi?是有噪聲的。

Temporal Ensembling:

這個方法的目標也是一致性正則化,但是實現方法有點不一樣。

眾所周知,與單一模型相比,模型集成通常能提供更好的預測。通過在訓練期間使用單個模型在不同訓練時期的輸出來形成集成預測,這一思想得到了擴展。

簡單來說,不是比較模型的相同輸入的兩個擾動的預測(如π模型),模型的預測與之前的epoch中模型對該輸入的預測的加權平均進行比較。

這種方法克服了π模型的兩個缺點。它在每個epoch中,單個輸入只進入一次,而且訓練目標zi? 的噪聲更小,因為會進行滑動平均。

這種方法的缺點是需要存儲數據集中所有的zi? 。

英文原文:https://medium.com/analytics-vidhya/a-primer-on-semi-supervised-learning-part-2-803f45edac2

責任編輯:xj

原文標題:半監督學習入門基礎(二):最基礎的3個概念

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • SSL
    SSL
    +關注

    關注

    0

    文章

    125

    瀏覽量

    25740
  • 半監督
    +關注

    關注

    0

    文章

    5

    瀏覽量

    6326
  • 機器學習
    +關注

    關注

    66

    文章

    8418

    瀏覽量

    132635
  • 深度學習
    +關注

    關注

    73

    文章

    5503

    瀏覽量

    121162

原文標題:半監督學習入門基礎(二):最基礎的3個概念

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    自然語言處理與機器學習的關系 自然語言處理的基本概念及步驟

    Learning,簡稱ML)是人工智能的一核心領域,它使計算機能夠從數據中學習并做出預測或決策。自然語言處理與機器學習之間有著密切的關系,因為機器學習提供了一種強大的工具,用于從大
    的頭像 發表于 12-05 15:21 ?483次閱讀

    時空引導下的時間序列自監督學習框架

    【導讀】最近,香港科技大學、上海AI Lab等多個組織聯合發布了一篇時間序列無監督預訓練的文章,相比原來的TS2Vec等時間序列表示學習工作,核心在于提出了將空間信息融入到預訓練階段,即在預訓練階段
    的頭像 發表于 11-15 11:41 ?255次閱讀
    時空引導下的時間序列自<b class='flag-5'>監督學習</b>框架

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    收集海量的文本數據作為訓練材料。這些數據集不僅包括語法結構的學習,還包括對語言的深層次理解,如文化背景、語境含義和情感色彩等。 自監督學習:模型采用自監督學習策略,在大量無標簽文本數據上學習
    發表于 08-02 11:03

    【《大語言模型應用指南》閱讀體驗】+ 基礎篇

    章節最后總結了機器學習的分類:有監督學習、無監督學習監督學習、自監督學習和強化
    發表于 07-25 14:33

    三位和四位萬用表的區別

    三位和四位萬用表是電子測量領域中常用的兩種數字萬用表,它們在測量精度、顯示方式、應用范圍等方面存在一定的差異。本文將從多個方面詳細分析這兩種萬用表的區別。 一、基本概念 三位萬用
    的頭像 發表于 07-14 14:23 ?5719次閱讀

    神經網絡如何用無監督算法訓練

    神經網絡作為深度學習的重要組成部分,其訓練方式多樣,其中無監督學習是一種重要的訓練策略。無監督學習旨在從未標記的數據中發現數據內在的結構、模式或規律,從而提取有用的特征表示。這種訓練方式對于大規模未
    的頭像 發表于 07-09 18:06 ?801次閱讀

    深度學習中的無監督學習方法綜述

    應用中往往難以實現。因此,無監督學習在深度學習中扮演著越來越重要的角色。本文旨在綜述深度學習中的無監督學習方法,包括自編碼器、生成對抗網絡、聚類算法等,并分析它們的原理、應用場景以及優
    的頭像 發表于 07-09 10:50 ?732次閱讀

    遷移學習的基本概念和實現方法

    遷移學習(Transfer Learning)是機器學習領域中的一重要概念,其核心思想是利用在一任務或領域中學到的知識來加速或改進另一
    的頭像 發表于 07-04 17:30 ?1665次閱讀

    基于FPGA的類腦計算平臺 —PYNQ 集群的無監督圖像識別類腦計算系統

    STDP 無監督學習算法,可運用于圖像的 無監督分類。 從平臺設計角度: (1)本設計搭建的基于 PYNQ 集群的通用低功耗的大規模類腦計算平臺,搭載 PYNN,NEST 等通用 SNN
    發表于 06-25 18:35

    監督深度學習實現單次非相干全息3D成像

    論文信息 背景引入 數字全息術因其能夠從單一視點對3D場景進行成像而備受關注。與直接成像相比,數字全息是一種間接的多步驟成像過程,包括光學記錄全息圖和數值計算重建,為包括深度學習在內的計算成像方法
    的頭像 發表于 05-13 17:38 ?447次閱讀
    無<b class='flag-5'>監督</b>深度<b class='flag-5'>學習</b>實現單次非相干全息<b class='flag-5'>3</b>D成像

    CVPR&apos;24 Highlight!跟蹤3D空間中的一切!

    為了使用三維運動先驗正則化估計的三維軌跡,模型另外預測了每條軌跡的剛性嵌入,這使能夠軟地分組表現出相同剛性體運動的像素,并為每個剛性集群強制執行ARAP正則化。作者證明了剛性嵌入可以通過自監督學習,并產生不同剛性部分的合理分割。
    的頭像 發表于 04-13 12:12 ?1255次閱讀
    CVPR&apos;24 Highlight!跟蹤<b class='flag-5'>3</b>D空間中的一切!

    機器學習基礎知識全攻略

    監督學習通常是利用帶有專家標注的標簽的訓練數據,學習從輸入變量X到輸入變量Y的函數映射。Y = f (X),訓練數據通常是(n×x,y)的形式,其中n代表訓練樣本的大小,x和y分別是變量X和Y的樣本值。
    發表于 02-25 13:53 ?244次閱讀
    機器<b class='flag-5'>學習</b>基礎知識全攻略

    OpenAI推出Sora:AI領域的革命性突破

    大模型的核心技術是自然語言處理(NLP)和深度學習。具體而言,它基于Transformer架構,使用了大規模無監督學習方法,例如自回歸語言建模和掩碼語言建模,來訓練一龐大的神經網絡模型。
    發表于 02-21 16:36 ?1021次閱讀
    OpenAI推出Sora:AI領域的革命性突破

    2024年AI領域將會有哪些新突破呢?

    傳統的機器學習需要大量的標記數據進行訓練,但自監督學習可以通過無監督的方式從大規模未標記的數據中學習到更有用的表示形式,從而提高模型的性能。
    的頭像 發表于 01-24 09:58 ?2013次閱讀

    谷歌MIT最新研究證明:高質量數據獲取不難,大模型就是歸途

    另一極端是,監督學習方法(即SupCE)會將所有這些圖像視為單一類(如「金毛獵犬」)。這就忽略了這些圖像在語義上的細微差別,例如在一對圖像中狗在騎自行車,而在另一對圖像中狗坐在壽司屋內。
    的頭像 發表于 01-15 15:40 ?544次閱讀
    谷歌MIT最新研究證明:高質量數據獲取不難,大模型就是歸途
    主站蜘蛛池模板: 三级毛片在线| 你懂的在线免费观看| 嫩草影院www| 天天躁日日2018躁狠狠躁| 欧美黑人性受xxxx喷水| 性欧美网站| 国产日韩欧美综合色视频在线| 日本黄色小说视频| 欧美另类亚洲一区二区| 欧美午夜电影| 天天草综合| 人人射人人爽| 免费国产成人α片| 免费看曰批女人爽的视频网址| 免费黄视频网站| 美女视频网站色软件免费视频| 天天爱天天做天天爽| 久久精品网站免费观看| 免费大秀视频在线播放| 久久久午夜精品理论片| 一级特级aaaa毛片免费观看| 国产裸露片段精华合集链接| 中国人69xxx大全| 色性视频| 天天综合色天天综合| 免费污视频在线| 黄色工厂在线播放| 91久久国产青草亚洲| 深爱婷婷网| 天天做爽夜夜做爽| tom影院亚洲国产一区二区| 国产三级中文字幕| 1314酒色| 免费的色网站| www.九九热| 日本五十交尾在线观看| 四虎国产精品4hu永久 | 午夜影视剧场| 女上男下边吃奶边做视频成都| 激情网五月天| 欧美性一区|