在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ICML 2023 | 對多重圖進(jìn)行解耦的表示學(xué)習(xí)方法

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:未知 ? 2023-09-24 20:45 ? 次閱讀
wKgaomUkfuqAZtgxAAAl6LOgh3c601.png

Introduction

無監(jiān)督多重圖表示學(xué)習(xí)(UMGRL)受到越來越多的關(guān)注,但很少有工作同時關(guān)注共同信息和私有信息的提取。在本文中,我們認(rèn)為,為了進(jìn)行有效和魯棒的 UMGRL,提取完整和干凈的共同信息以及更多互補(bǔ)性和更少噪聲的私有信息至關(guān)重要。

為了實現(xiàn)這一目標(biāo),我們首先研究了用于多重圖的解纏表示學(xué)習(xí),以捕獲完整和干凈的共同信息,并設(shè)計了對私有信息進(jìn)行對比約束,以保留互補(bǔ)性并消除噪聲。此外,我們在理論上分析了我們方法學(xué)到的共同和私有表示可以被證明是解纏的,并包含更多與任務(wù)相關(guān)和更少與任務(wù)無關(guān)的信息,有利于下游任務(wù)。大量實驗證實了所提方法在不同下游任務(wù)方面的優(yōu)越性。

wKgaomUkfuqAVfjYAABHPPBGdKY217.png

論文標(biāo)題:

Disentangled Multiplex Graph Representation Learning

論文鏈接:

https://openreview.net/pdf?id=lYZOjMvxws

代碼鏈接:

https://github.com/YujieMo/DMG

wKgaomUkfuqAGHq2AAAuhh9-KLM945.png

Motivation

以前的 UMGRL 方法旨在隱式提取不同圖之間的共同信息,這對于揭示樣本的身份是有效和魯棒的。然而,它們通常忽視了每個圖的私有信息中的互補(bǔ)性,并可能失去節(jié)點之間的重要屬性。

例如,在多重圖中,其中論文是節(jié)點,邊代表兩個不同圖中的共同主題或共同作者。如果一個私有邊(例如,共同主題關(guān)系)僅存在于某個圖中,并連接來自相同類別的兩篇論文,它有助于通過提供互補(bǔ)信息來降低類內(nèi)差距,從而識別論文。因此,有必要同時考慮共同信息和私有信息,以實現(xiàn) UMGRL 的有效性和魯棒性。

基于有助于識別樣本的共同信息,捕獲不同圖之間的所有共同信息(即完整的)是直觀的。此外,這種完整的共同信息應(yīng)該僅包含共同信息(即干凈的)。相反,如果共同信息包含其他混淆的內(nèi)容,共同信息的質(zhì)量可能會受到損害。

因此,第一個問題出現(xiàn)了:如何獲得完整和干凈的共同信息?另一方面,私有信息是互補(bǔ)性和噪聲的混合??紤]引文網(wǎng)絡(luò)的同一個示例,如果私有邊連接來自不同類別的兩篇論文,它可能會干擾消息傳遞,應(yīng)該作為噪聲被刪除。因此,第二個問題出現(xiàn)了:如何保留私有信息中的互補(bǔ)性并去除噪聲?

然而,以前的 UMGRL 方法很少探討了上述問題。最近,已經(jīng)開發(fā)了解耦表示學(xué)習(xí)方法,以獲得共同和私有表示,但由于多重圖中節(jié)點之間的復(fù)雜關(guān)系以及圖結(jié)構(gòu)中的互補(bǔ)性和噪聲,將它們應(yīng)用于解決 UMGRL 中的上述問題是具有挑戰(zhàn)性的。為此,我們提出了一種新的解耦多重圖表示學(xué)習(xí)框架,以回答上述兩個問題。

wKgaomUkfuqAGClPAAAtJ0fTuoM407.png

Method wKgaomUkfuuAFKzpAAOcVeoAsDo707.png

Notations

表示多重圖,表示多重圖中的第 張圖,表示圖的數(shù)量。

本文模型 DMG 首先通過一個共同變量 學(xué)習(xí)到經(jīng)過解耦的共同表示以及私有表示,接著獲取到融合表示。

3.1 Common Information Extraction

以前的 UMGRL 方法(例如,圖之間的對比學(xué)習(xí)方法)通常通過最大化兩個圖之間的互信息來隱式捕獲不同圖之間的共同模式。例如,為了提取共同信息,STENCIL(Zhu等人,2022)最大化每個圖與聚合圖之間的互信息,而 CKD(Zhou等人,2022)最大化不同圖中區(qū)域表示和全局表示之間的互信息。

然而,由于它們未能將共同信息與私有信息解耦,因此這些努力不能明確地捕獲完整且干凈的共同信息。為了解決這個問題,本文研究了解耦表示學(xué)習(xí),以獲得完整且 clean 的共同信息。

具體地,首先使用圖卷積層 生成節(jié)點表示

wKgaomUkfuuABQ8NAAAvkkAdEjM107.png

表示一個帶權(quán)重的自環(huán); 表示度矩陣; 表示卷積層 的權(quán)重矩陣。

接著使用 MLP 來促進(jìn)每張圖共同和私有信息的解耦過程,分別將節(jié)點嵌入 映射為共同表示和私有表示 。 給定每張圖的共同表示 ,對齊這些表示最簡單的方法使讓它們彼此相等。然而這樣做會影響共同表示的質(zhì)量。在本文中,我們通過奇異值分解操作引入了一個具有正交性和零均值的公共變量 到共同表示中。然后,我們對公共表示 與公共變量 之間進(jìn)行匹配損失,旨在逐漸對齊來自不同圖的共同表示,以捕獲它們之間的完整共同信息。匹配損失的公式如下:wKgaomUkfuuAN_OnAABm6_AnC5s014.png的作用是作為所有圖共同表示之間的一個橋梁,使得這些表示具有較好的一致性:。

然后,為了解耦公共和私有表示,我們必須強(qiáng)化它們之間的統(tǒng)計獨立性。值得注意的是,如果公共和私有表示在統(tǒng)計上是獨立的,那么必須滿足:

wKgaomUkfuuAfQVjAAA1rUFYpCg594.png

顯然,通過最小化 之間的相關(guān)性,可以實現(xiàn)公共和私有表示之間的獨立性。特別是,相關(guān)性損失是通過計算 Pearson 相關(guān)系數(shù)來獲得的,即:wKgaomUkfuuAIf8PAABc_K2L0zc801.png我們期望通過匹配損失(即獲得完整的共同信息)和相關(guān)性損失(即獲得干凈的共同信息)來獲得清晰的共同表示 中的共同信息。然而,在無監(jiān)督框架下,學(xué)得的共同和私有表示可能是微不足道的解決方案。 常見的解決方案包括對比學(xué)習(xí)方法和自編碼器方法。對比學(xué)習(xí)方法引入大量負(fù)樣本以避免微不足道的解決方案,但可能會引入大量的內(nèi)存開銷。自編碼器方法采用自編碼器框架,通過重構(gòu)損失來促進(jìn)編碼器的可逆性,以防止微不足道的解決方案。然而,現(xiàn)有的圖自編碼器旨在重構(gòu)直接的邊緣,忽略了拓?fù)浣Y(jié)構(gòu),并且計算成本高昂。 為了解決上述問題,我們研究了一種新的重構(gòu)損失,以同時重構(gòu)節(jié)點特征和拓?fù)浣Y(jié)構(gòu)。具體而言,我們首先將共同和私有表示連接在一起,然后使用重構(gòu)網(wǎng)絡(luò) 獲得重構(gòu)的節(jié)點表示 。我們進(jìn)一步進(jìn)行特征重構(gòu)和拓?fù)渲貥?gòu)損失,以分別重構(gòu)節(jié)點特征和局部拓?fù)浣Y(jié)構(gòu)。因此,重構(gòu)損失可以表述為:wKgaomUkfuyACBs_AABGcDUoCZA710.png

, 表示采樣的鄰居數(shù)。

在上式中第一項鼓勵 重構(gòu)原始節(jié)點特征,第二項鼓勵 重構(gòu)拓?fù)浣Y(jié)構(gòu)。

3.2 Private Information Constraint

私有信息是補(bǔ)充信息和噪音的混合物。因此,鑒于學(xué)習(xí)到的私有表示,我們希望進(jìn)一步回答 3.1 節(jié)中的第二個問題,即保留補(bǔ)充信息并消除私有信息中的噪聲。此外,多重圖的私有信息主要位于每個圖的圖結(jié)構(gòu)中,因為不同圖的節(jié)點特征是從共享特征矩陣 X 生成的。因此,我們研究了在每個圖結(jié)構(gòu)中保留互補(bǔ)邊并去除噪聲邊。

首先提供了以下有關(guān)圖結(jié)構(gòu)中補(bǔ)充信息和噪聲的定義:
  • 圖 上的任意私有邊,即 ,若節(jié)點對 所屬的類別相同,那么 將是圖 的一條補(bǔ)充邊,否則是一條噪聲邊。
根據(jù)定義 3.2,每個圖中的私有信息分為兩部分,即補(bǔ)充邊和噪聲邊,根據(jù)節(jié)點對的類別。然而,在無監(jiān)督方式下,節(jié)點標(biāo)簽不可用。為解決這個問題,在這項工作中,我們將節(jié)點對(vi, vj)的標(biāo)簽信息近似為共同變量 之間的余弦相似度:wKgaomUkfuyAfpVoAAAdVBUNh_A185.png ?給定邊集 中所有節(jié)點對的余弦相似度,進(jìn)一步假設(shè)具有最高相似度的節(jié)點對屬于同一類,具有低相似度的節(jié)點對屬于不同類。因此,對于連接節(jié)點的高相似性邊是補(bǔ)充邊,表示為 ,而對于連接節(jié)點的低相似性邊是噪聲邊,表示為 。直觀地,應(yīng)保留補(bǔ)充邊,而應(yīng)刪除噪聲邊。

設(shè)計了一個對比模塊,用于進(jìn)行對比損失:

wKgaomUkfuyARvQ0AABMx0GFwa4225.png

3.3 Objective Function

wKgaomUkfuyAQlDZAAAlJTzDbvE765.png

經(jīng)過優(yōu)化,預(yù)計所提出的 DMG 將獲得完整且干凈的公共表示,以及更多互補(bǔ)性和更少噪聲的私有表示,以實現(xiàn)有效且穩(wěn)健的 UMGRL)。然進(jìn)行平均池化(LeCun等人,1989)來融合所有圖的私有表示,以獲得總體的私有表示 P,即

wKgaomUkfuyADKqjAAAahdKicYQ162.png

最后,我們將總體的私有表示 P 與共同變量 S 連接起來,獲得最終的表示 Z。

wKgaomUkfuyARpcyAAAr2pbNr48206.png

Experiments

4.1 Node Classification

wKgaomUkfu2AWKwiAAZ8K96J5VQ663.png

4.2 Node Clustering

wKgaomUkfu2ASdYNAAQCp_M5_UQ687.png

4.3 Single-view graph datasets

wKgaomUkfu2ATRbIAAUw1jhX_cg715.png

wKgaomUkfu6AZ8zhAAAtTL4L6hI450.png

Conclusion

本文提出了一個用于多重圖的解耦表示學(xué)習(xí)框架。為實現(xiàn)這一目標(biāo),我們首先解耦了共同表示和私有表示,以捕獲完整和干凈的共同信息。我們進(jìn)一步設(shè)計了對私有信息進(jìn)行對比約束,以保留互補(bǔ)性并消除噪聲。理論分析表明,我們方法學(xué)到的共同和私有表示可以被證明是解耦的,包含更多與任務(wù)相關(guān)的信息和更少與任務(wù)無關(guān)的信息,有利于下游任務(wù)。廣泛的實驗結(jié)果表明,所提出的方法在不同的下游任務(wù)中在有效性和魯棒性方面始終優(yōu)于現(xiàn)有方法。

·


原文標(biāo)題:ICML 2023 | 對多重圖進(jìn)行解耦的表示學(xué)習(xí)方法

文章出處:【微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:ICML 2023 | 對多重圖進(jìn)行解耦的表示學(xué)習(xí)方法

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    用于開發(fā)生物學(xué)數(shù)據(jù)的機(jī)器學(xué)習(xí)方法。盡管深度學(xué)習(xí)(一般指神經(jīng)網(wǎng)絡(luò)算法)是一個強(qiáng)大的工具,目前也非常流行,但它的應(yīng)用領(lǐng)域仍然有限。與深度學(xué)習(xí)相比,傳統(tǒng)方法在給定問題上的開發(fā)和測試速度更快。
    的頭像 發(fā)表于 12-30 09:16 ?301次閱讀
    傳統(tǒng)機(jī)器<b class='flag-5'>學(xué)習(xí)方法</b>和應(yīng)用指導(dǎo)

    瑞薩電子與吉利汽車聯(lián)合舉辦汽車主控芯片軟硬能力提升訓(xùn)練營

    近日,由瑞薩電子與吉利汽車研究院聯(lián)合舉辦的“汽車主控芯片軟硬能力提升訓(xùn)練營”順利落幕。
    的頭像 發(fā)表于 12-09 10:50 ?306次閱讀

    非線性光與線性光的差別

    非線性光與線性光的不同 在電路中光的電路非常常見,光在電路中的作用是進(jìn)行隔離并對光電進(jìn)行
    的頭像 發(fā)表于 11-16 10:28 ?453次閱讀

    什么是機(jī)器學(xué)習(xí)?通過機(jī)器學(xué)習(xí)方法能解決哪些問題?

    計算機(jī)系統(tǒng)自身的性能”。事實上,由于“經(jīng)驗”在計算機(jī)系統(tǒng)中主要以數(shù)據(jù)的形式存在,因此機(jī)器學(xué)習(xí)需要設(shè)法對數(shù)據(jù)進(jìn)行分析學(xué)習(xí),這就使得它逐漸成為智能數(shù)據(jù)分析技術(shù)的創(chuàng)新源之一,
    的頭像 發(fā)表于 11-16 01:07 ?462次閱讀
    什么是機(jī)器<b class='flag-5'>學(xué)習(xí)</b>?通過機(jī)器<b class='flag-5'>學(xué)習(xí)方法</b>能解決哪些問題?

    如何使用 PyTorch 進(jìn)行強(qiáng)化學(xué)習(xí)

    強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)是一種機(jī)器學(xué)習(xí)方法,它通過與環(huán)境的交互來學(xué)習(xí)如何做出決策,以最大化累積獎勵。PyTorch 是一個流行的開源機(jī)器學(xué)習(xí)庫,
    的頭像 發(fā)表于 11-05 17:34 ?344次閱讀

    《DNK210使用指南 -CanMV版 V1.0》第一章本書學(xué)習(xí)方法

    第一章 本書學(xué)習(xí)方法 為了讓讀者更好地學(xué)習(xí)和使用本書,本章將為讀者介紹本書的學(xué)習(xí)方法,包括:本書的學(xué)習(xí)順序、編寫規(guī)范、代碼規(guī)范、資料查找和學(xué)習(xí)
    發(fā)表于 08-28 17:57

    探索光:高速光與普通光的差異

    在現(xiàn)代電子設(shè)備中,光(光電耦合器)是不可或缺的重要元件。它通過光信號隔離電路,防止高電壓或高電流的干擾。然而,隨著電子技術(shù)的發(fā)展,對光的性能需求也在不斷提升。高速光的出現(xiàn),標(biāo)志著光
    的頭像 發(fā)表于 08-20 08:51 ?590次閱讀
    探索光<b class='flag-5'>耦</b>:高速光<b class='flag-5'>耦</b>與普通光<b class='flag-5'>耦</b>的差異

    不平衡電網(wǎng)下基于功率的PWM整流器控制策略研究

    當(dāng)三相輸入電壓不平衡時,在靜止坐標(biāo)系下進(jìn)行分析,一般都忽略了電流的,應(yīng)用傳統(tǒng)比例諧振控制器時存在一個問題,即有功功率與無功功率的耦合嚴(yán)重。針對不平衡電網(wǎng)工況下PWM整流器有功及無功功率嚴(yán)重耦合
    的頭像 發(fā)表于 07-23 14:40 ?192次閱讀
    不平衡電網(wǎng)下基于功率<b class='flag-5'>解</b><b class='flag-5'>耦</b>的PWM整流器控制策略研究

    深度學(xué)習(xí)中的時間序列分類方法

    的發(fā)展,基于深度學(xué)習(xí)的TSC方法逐漸展現(xiàn)出其強(qiáng)大的自動特征提取和分類能力。本文將從多個角度對深度學(xué)習(xí)在時間序列分類中的應(yīng)用進(jìn)行綜述,探討常用的深度學(xué)
    的頭像 發(fā)表于 07-09 15:54 ?1072次閱讀

    深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實現(xiàn)。因此,無監(jiān)督學(xué)習(xí)在深度學(xué)習(xí)中扮演著越來越重要的角色。本文旨在綜述深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法,包括自編碼器、生成對抗網(wǎng)絡(luò)、聚類算法等,并分析它們的原理、應(yīng)用場景以及優(yōu)
    的頭像 發(fā)表于 07-09 10:50 ?852次閱讀

    智能數(shù)采網(wǎng)關(guān)助力破解軟硬件難題

    不同需求提供可靠的數(shù)字化支持。 軟硬件是指將軟件和硬件進(jìn)行分離,使得軟件和硬件能夠獨立設(shè)計、開發(fā)、測試和部署,從而提高系統(tǒng)的靈活性、可擴(kuò)展性和可維護(hù)性。在工業(yè)控制領(lǐng)域,由于PLC(可編程邏輯控制器)產(chǎn)品品牌眾多,且通常
    的頭像 發(fā)表于 04-11 15:37 ?422次閱讀
    智能數(shù)采網(wǎng)關(guān)助力破解軟硬件<b class='flag-5'>解</b><b class='flag-5'>耦</b>難題

    檢測儀的制作方法有哪些

    搭建和軟件編程等方面。本文將詳細(xì)介紹光檢測儀的制作方法,包括電路設(shè)計和搭建、元器件選型、軟件編程等方面。 一、光檢測儀的電路設(shè)計和搭建 1.選取合適的光件 光
    的頭像 發(fā)表于 04-01 18:10 ?2641次閱讀

    鴻蒙開發(fā)學(xué)習(xí):【驅(qū)動子系統(tǒng)】

    OpenHarmony驅(qū)動子系統(tǒng)采用C面向?qū)ο缶幊棠P蜆?gòu)建,通過平臺、內(nèi)核,兼容不同內(nèi)核,提供了歸一化的驅(qū)動平臺底座,旨在為開發(fā)者提供更精準(zhǔn)、更高效的開發(fā)環(huán)境,力求做到一次開發(fā)
    的頭像 發(fā)表于 03-17 22:05 ?631次閱讀
    鴻蒙開發(fā)<b class='flag-5'>學(xué)習(xí)</b>:【驅(qū)動子系統(tǒng)】

    KUKA機(jī)器人8.7系統(tǒng)對PROFINET軟件進(jìn)行編程控制的步驟

    為了可以在不同的機(jī)器人上交替地運行一個設(shè)備,需要 IOCTL 命 令 1060 進(jìn)行
    的頭像 發(fā)表于 03-04 09:35 ?2596次閱讀
    KUKA機(jī)器人8.7系統(tǒng)對PROFINET軟件<b class='flag-5'>進(jìn)行</b>編程控制的步驟

    正向光和反向光區(qū)別

    場景。 首先,讓我們從正向光開始。正向光也被稱為光電耦合器或光電隔離器,它是一種能夠?qū)㈦娦盘栟D(zhuǎn)變?yōu)楣庑盘杹?b class='flag-5'>進(jìn)行隔離的器件。正向光通常由一個發(fā)光二極管(LED)和一個光敏電阻(光控
    的頭像 發(fā)表于 02-02 10:08 ?1821次閱讀
    主站蜘蛛池模板: 天天草综合网| 三级网站在线| 久久黄色一级片| 婷婷久久综合九色综合九七| 天天曰天天干| 韩国三级hd中文字幕好大| 人人97| 四虎新地址| 性在线视频| 一级片成人| 在线观看亚洲成人| 狠狠色噜噜狠狠狠狠97不卡| 亚洲一区欧美日韩| tube 69sex 第一次| 视频在线免费观看| www.av毛片| 国产精品嫩草影院人体模特| 欧美成人三级网站| 天天操天天干天天干| 久久精品国产亚洲片| 不卡一级毛片免费高清| 黄色四虎影院| 国产日韩一区二区三区| 国产中日韩一区二区三区| www.丁香| 性夜黄a爽爽免费视频国产| 在线免费看片a| 午夜一级毛片不卡| 天天拍天天干天天操| 手机看片福利日韩| 日本特级黄录像片| 成人性欧美丨区二区三区 | 免费国产成高清人在线视频| 中文天堂在线最新2022更新| 老师叫我下面含着精子去上课| 草草影院www色极品欧美| 狠狠操夜夜| 在线播放黄色网址| 一区二区免费播放| 五月网婷婷| 欧美一级片免费在线观看|