在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

經(jīng)典圖神經(jīng)網(wǎng)絡(luò)(GNNs)的基準分析研究

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:智能感知與物聯(lián)網(wǎng)技術(shù)研 ? 2024-11-27 09:16 ? 次閱讀

本文簡要介紹了經(jīng)典圖神經(jīng)網(wǎng)絡(luò)(GNNs)的基準分析研究,發(fā)表在 NeurIPS 2024。

文章回顧了經(jīng)典 GNNs 模型在節(jié)點分類任務上的表現(xiàn),結(jié)果發(fā)現(xiàn)過去 SOTA 圖學習模型報告的性能優(yōu)越性可能是由于經(jīng)典 GNNs 的超參數(shù)配置不佳。通過適當?shù)某瑓?shù)調(diào)整,經(jīng)典 GNNs 模型在 18 個廣泛使用的節(jié)點分類數(shù)據(jù)集中的 17 個上超越了最新的圖學習模型。本研究旨在為 GNNs 的應用和評估帶來新的見解。

96e7f88e-9f6e-11ef-93f3-92fbcf53809c.png

論文題目:Classic GNNs are Strong Baselines: Reassessing GNNs for Node Classification

論文鏈接:

https://arxiv.org/abs/2406.08993

代碼鏈接:

https://github.com/LUOyk1999/tunedGNN

引言節(jié)點分類是圖機器學習中的一個基本任務,在社交網(wǎng)絡(luò)分析、生物信息學和推薦系統(tǒng)等多個領(lǐng)域中具有廣泛的高影響力應用。圖神經(jīng)網(wǎng)絡(luò)(GNNs)已成為解決節(jié)點分類任務的強大模型。 GNNs 通過迭代地從節(jié)點的鄰居中聚合信息,這一過程被稱為消息傳遞,利用圖結(jié)構(gòu)和節(jié)點特征來學習有用的節(jié)點表示進行分類。盡管 GNNs 取得了顯著的成功,但研究指出它們存在一些局限性,包括過度平滑、過度壓縮、對異質(zhì)性缺乏敏感性以及捕獲長距離依賴的挑戰(zhàn)。 最近,Graph Transformer(GTs)作為 GNN 的替代模型受到越來越多的關(guān)注。與主要聚合局部鄰域信息的 GNNs 不同,Transformer 架構(gòu)通過自注意力層可以捕獲任意節(jié)點對之間的交互。GTs 在圖級任務(如涉及小規(guī)模圖的分子圖分類)上取得了顯著成功。 這一成功激發(fā)了嘗試將 GTs 應用于節(jié)點分類任務的努力,特別是在大規(guī)模圖上,以應對 GNNs 的上述局限性。盡管最新的 GTs 取得了令人鼓舞的成果,但觀察到許多此類模型在顯性或隱性層面上仍然依賴于消息傳遞來學習局部節(jié)點表示,將其與全局注意力機制結(jié)合以獲得更全面的表示。 這促使我們重新思考:消息傳遞 GNNs 在節(jié)點分類中的潛力是否被低估了?雖然已有研究在一定程度上解決了這一問題,但這些研究在范圍和全面性上仍存在局限性,例如數(shù)據(jù)集數(shù)量和多樣性有限,以及超參數(shù)的考察不完整。 在本研究中,我們?nèi)嬷匦略u估了 GNNs 在節(jié)點分類中的表現(xiàn),使用了三種經(jīng)典的 GNNs 模型—— GCN、GAT和 GraphSAGE ——并在 18 個真實世界的基準數(shù)據(jù)集上進行了測試,包括同質(zhì)性、異質(zhì)性和大規(guī)模圖。 我們考察了 GNNs 訓練中的關(guān)鍵超參數(shù)對其性能的影響,包括 normalization、dropout、residual connections 和 network depth。主要發(fā)現(xiàn)總結(jié)如下:

經(jīng)過適當?shù)某瑓?shù)調(diào)整,經(jīng)典 GNNs 在同質(zhì)性和異質(zhì)性圖中的節(jié)點分類任務中均能取得高度競爭力的性能,甚至在節(jié)點數(shù)量達百萬量級的大規(guī)模圖上也是如此。值得注意的是,經(jīng)典 GNNs 在 18 個數(shù)據(jù)集中有 17 個超越了最先進的圖學習模型,表明 GTs 對比 GNNs 所宣稱的優(yōu)勢可能是由于在 GNNs 評估中超參數(shù)配置不佳

我們的消融研究對 GNNs 節(jié)點分類中的超參數(shù)提供了見解。我們驗證了:

Normalization 對于大規(guī)模圖至關(guān)重要

Dropout 一致地表現(xiàn)出積極影響

Residual connections 在異質(zhì)性圖上可以顯著增強性能

在異質(zhì)性圖上,較深的層數(shù)可能更適合 GNNs

方法介紹

2.1 數(shù)據(jù)集概述

970b87fe-9f6e-11ef-93f3-92fbcf53809c.png

同質(zhì)性圖:Cora、CiteSeer 和 PubMed 是三種常用的引用網(wǎng)絡(luò)[1]。我們遵循傳統(tǒng)的半監(jiān)督設(shè)定[2]來劃分數(shù)據(jù)集。此外,Computer 和 Photo 是公共購買網(wǎng)絡(luò)[3],CS 和 Physics是公共作者網(wǎng)絡(luò)[3],我們采用訓練/驗證/測試劃分為 60%/20%/20% 的標準[4]。我們還使用了 Wiki-CS [5],該數(shù)據(jù)集是由計算機科學論文組成的引用網(wǎng)絡(luò),我們使用[5]的劃分。

異質(zhì)性圖:Squirrel 和 Chameleon 是兩個 Wikipedia 特定主題的頁面網(wǎng)絡(luò)[6]。我們采用異質(zhì)圖基準測試[7]中的新的數(shù)據(jù)集劃分。此外,我們還使用 Roman-Empire、Amazon-Ratings、Minesweeper 和 Questions 四個異質(zhì)性數(shù)據(jù)集[7],這些數(shù)據(jù)集的劃分和評估指標遵循其來源[7]的標準。大規(guī)模圖:我們使用了由 Open Graph Benchmark(OGB)[8]發(fā)布的多個大規(guī)模圖,包括 ogbn-arxiv、ogbn-proteins 和 ogbn-products,節(jié)點數(shù)量從 0.16M 到 2.4M 不等。此外,我們還分析了社交網(wǎng)絡(luò) pokec [9]的性能表現(xiàn)。

2.2 超參數(shù)設(shè)置

我們的重點在于經(jīng)典 GNNs 模型(GCN、GraphSAGE、GAT)與最先進的圖學習模型的比較。我們對經(jīng)典 GNNs 進行了超參數(shù)調(diào)整,并與 Polynormer [4] 的超參數(shù)搜索空間保持一致。同時,所有基準baselines也在相同的超參數(shù)搜索空間和訓練環(huán)境下重新訓練。

2.3 關(guān)鍵超參數(shù)在本節(jié)中,我們概述了 GNNs 訓練中的關(guān)鍵超參數(shù),包括 normalization、dropout、residual connections 和 network depth。這些超參數(shù)在不同類型的神經(jīng)網(wǎng)絡(luò)中被廣泛應用,以提升模型性能:

Normalization:在每一層激活函數(shù)之前使用 layer normalization(LN)或 batch normalization(BN),可以減少協(xié)變量偏移,穩(wěn)定訓練過程并加速收斂。

Dropout:在激活函數(shù)之后對特征嵌入使用 dropout 來減少隱藏神經(jīng)元間的共適應,有助于降低 GNNs 中消息傳遞的共適應效應。

Residual Connections:通過在層之間引入 residual connections,可以緩解梯度消失問題,增強 GNNs 的表現(xiàn)力。

Network Depth:盡管深層網(wǎng)絡(luò)能夠提取更復雜的特征,但 GNNs 在深度上面臨獨特挑戰(zhàn),如過度平滑等。因此,大多數(shù) GNNs 采用較淺的結(jié)構(gòu),通常包含 2 到 5 層。然而,我們的實驗發(fā)現(xiàn)如果搭配上 residual connections,GNNs 可以拓深至 10 層的網(wǎng)絡(luò)。

實驗結(jié)果

3.1 主要發(fā)現(xiàn)

9720909a-9f6e-11ef-93f3-92fbcf53809c.png

關(guān)于同質(zhì)性圖的觀察:經(jīng)典 GNNs 在同質(zhì)性圖的節(jié)點分類任務中,僅需對超參數(shù)進行輕微調(diào)整,便能夠具備很強的競爭力,且在很多情況下優(yōu)于最先進的 GTs。

9747aa9a-9f6e-11ef-93f3-92fbcf53809c.png

關(guān)于異質(zhì)性圖的觀察:我們的參數(shù)調(diào)整顯著提高了經(jīng)典 GNNs 在異質(zhì)性圖上的先前最佳結(jié)果,超越了為此類圖專門設(shè)計的專用 GNNs 模型,甚至超過了 SOTA GTs 架構(gòu)。這一進展不僅支持了[7]中的發(fā)現(xiàn),還進一步強化了其結(jié)論,即經(jīng)典 GNNs 在異質(zhì)性圖上也是強有力的競爭者,挑戰(zhàn)了它們主要適用于同質(zhì)性圖結(jié)構(gòu)的普遍假設(shè)。

97639ff2-9f6e-11ef-93f3-92fbcf53809c.png

關(guān)于大規(guī)模圖的觀察:我們的參數(shù)調(diào)整顯著提升了經(jīng)典 GNNs 的先前結(jié)果,在某些情況下準確率提升達到了兩位數(shù)。它們在這些大規(guī)模圖數(shù)據(jù)集(無論是同質(zhì)性還是異質(zhì)性)中取得了最佳結(jié)果,甚至超過了最先進的 GTs。這表明消息傳遞在大規(guī)模圖上學習節(jié)點表示仍然非常有效。

3.2 消融分析

9777529a-9f6e-11ef-93f3-92fbcf53809c.png

978b2d2e-9f6e-11ef-93f3-92fbcf53809c.png

消融觀察 1:Normalization 在大規(guī)模圖的節(jié)點分類中非常重要,但在小規(guī)模圖中則不太顯著。

消融觀察 2:Dropout 對于節(jié)點分類始終是必要的。

消融觀察 3:Residual Connections 能夠顯著提升某些數(shù)據(jù)集上的性能,且在異質(zhì)性圖上的效果比同質(zhì)性圖上更為顯著。 消融觀察 4:更深的網(wǎng)絡(luò)通常在異質(zhì)性圖上帶來更大的性能提升,相較于同質(zhì)性圖表現(xiàn)更為明顯。

總結(jié)我們的研究對經(jīng)典 GNNs 模型在節(jié)點分類任務中的有效性進行了全面的重新評估。通過廣泛的實證分析,我們驗證了這些經(jīng)典 GNNs 模型能夠在各種圖數(shù)據(jù)集上達到甚至超越最先進圖學習模型的性能。

此外,我們的全面消融研究提供了關(guān)于不同 GNNs 超參數(shù)如何影響性能的見解。我們希望我們的研究結(jié)果為 GNNs 的應用和評估帶來新的見解。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:NeurIPS 2024 | 全面重新評估!經(jīng)典GNN是強有力的節(jié)點分類基線模型

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡(luò) 數(shù)學建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應用及未來發(fā)展等多個方面,詳細闡述BP
    的頭像 發(fā)表于 07-10 15:20 ?1070次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的案例分析

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network, ANN)作為深度學習領(lǐng)域的重要分支,自20世紀80年代以來一直是人工智能領(lǐng)域的研究熱點。其靈感來源于生物神經(jīng)網(wǎng)絡(luò),通過模擬人腦
    的頭像 發(fā)表于 07-08 18:20 ?790次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
    的頭像 發(fā)表于 07-05 09:52 ?577次閱讀

    人工神經(jīng)網(wǎng)絡(luò)模型的分類有哪些

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks, ANNs)是一種模擬人腦神經(jīng)元網(wǎng)絡(luò)的計算模型,它在許多領(lǐng)域,如圖像識別、語音識別、自然語言處理、預測分析等有著廣泛的應用。本文將
    的頭像 發(fā)表于 07-05 09:13 ?1211次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)實際上是同一個概念,只是不同的翻譯方式
    的頭像 發(fā)表于 07-04 14:54 ?759次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學習領(lǐng)域中兩種非常重要的神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 14:24 ?1295次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指傳統(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時,我們需要從多個維度進行深入
    的頭像 發(fā)表于 07-04 13:20 ?874次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和反向傳播神經(jīng)網(wǎng)絡(luò)區(qū)別在哪

    神經(jīng)網(wǎng)絡(luò)在許多領(lǐng)域都有廣泛的應用,如語音識別、圖像識別、自然語言處理等。然而,BP神經(jīng)網(wǎng)絡(luò)也存在一些問題,如容易陷入局部最優(yōu)解、訓練時間長、對初始權(quán)重敏感等。為了解決這些問題,研究者們提出了一些改進的BP
    的頭像 發(fā)表于 07-04 09:51 ?432次閱讀

    反向傳播神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)在許多領(lǐng)域都有廣泛的應用,如語音識別、圖像識別、自然語言處理等。然而,BP神經(jīng)網(wǎng)絡(luò)也存在一些問題,如容易陷入局部最優(yōu)解、訓練時間長、對初始權(quán)重敏感等。為了解決這些問題,研究者們提出了一些改進的BP
    的頭像 發(fā)表于 07-03 11:00 ?806次閱讀

    神經(jīng)網(wǎng)絡(luò)擬合的誤差怎么分析

    神經(jīng)網(wǎng)絡(luò)擬合誤差分析是一個復雜且深入的話題,涉及到多個方面,需要從數(shù)據(jù)質(zhì)量、模型結(jié)構(gòu)、訓練過程和正則化方法等多個角度進行綜合考慮。 引言 神經(jīng)網(wǎng)絡(luò)是一種強大的機器學習模型,廣泛應用于各種領(lǐng)域,如圖
    的頭像 發(fā)表于 07-03 10:36 ?580次閱讀

    bp神經(jīng)網(wǎng)絡(luò)是深度神經(jīng)網(wǎng)絡(luò)

    Network)有相似之處,但它們之間還是存在一些關(guān)鍵的區(qū)別。 一、引言 神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元結(jié)構(gòu)的計算模型,它由大量的神經(jīng)元(或稱為節(jié)點)組成,這些神經(jīng)元通過權(quán)重連接在一起
    的頭像 發(fā)表于 07-03 10:14 ?848次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種不同類型的人工神經(jīng)網(wǎng)絡(luò),它們在
    的頭像 發(fā)表于 07-03 10:12 ?1184次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    不同的神經(jīng)網(wǎng)絡(luò)模型,它們在結(jié)構(gòu)、原理、應用等方面都存在一定的差異。本文將從多個方面對這兩種神經(jīng)網(wǎng)絡(luò)進行詳細的比較和分析。 引言 神經(jīng)網(wǎng)絡(luò)是一種模擬人腦
    的頭像 發(fā)表于 07-02 14:24 ?3954次閱讀

    詳解深度學習、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應用

    處理技術(shù)也可以通過深度學習來獲得更優(yōu)異的效果,比如去噪、超分辨率和跟蹤算法等。為了跟上時代的步伐,必須對深度學習與神經(jīng)網(wǎng)絡(luò)技術(shù)有所學習和研究。本文將介紹深度學習技術(shù)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 01-11 10:51 ?2053次閱讀
    詳解深度學習、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應用
    主站蜘蛛池模板: 爱草免费视频| 亚洲vv| 四虎必出精品亚洲高清| 欧美成人高清性色生活| 午夜影视网站| 91大神在线精品网址| 亚洲高清中文字幕一区二区三区| 特黄特色| aaa一级最新毛片| 男人的视频网站| 色中涩| 精品人人| 一级骚片超级骚在线观看| 午夜色a大片在线观看免费| 性xxxxbbbb免费播放视频| 国产精品亚洲色图| 天天爱天天做天天爽天天躁| 午夜嘿嘿| 久久全国免费久久青青小草| 免费一级在线| 一级特黄aa毛片免费观看| 国产色妞妞在线视频免费播放| 国产黄在线观看免费观看不卡| 亚洲免费一| 美女免费视频色在线观看| 欧美在线视频7777kkkk| 亚洲一区欧美二区| 免费在线观看a| 一级特黄aaa大片在线观看视频| 久久影院午夜伦手机不四虎卡| 日本中文字幕在线播放| 久久婷婷综合中文字幕| 九九草在线观看| 久久久久无码国产精品一区| 色批| 神马午夜嘿嘿嘿| 亚洲欧美日韩国产一区二区三区精品| ww欧洲ww在线视频看ww| 中文字幕一区二区三区精彩视频| 美女国产在线观看免费观看 | 四虎永久精品视频在线|