在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

詳解圖神經網絡的數學原理3

jf_78858299 ? 來源:人工智能大講堂 ? 作者:人工智能大講堂 ? 2023-03-17 09:58 ? 次閱讀

流行圖神經網絡總結

上面我們介紹完了古神經網絡的基本流程,下面我們總結一下流行圖神經網絡,并將它們的方程和數學分為上面提到的3個GNN步驟。許多體系結構將消息傳遞和聚合步驟合并到一起執行的一個函數中,而不是顯式地一個接一個執行,但為了數學上的方便,我們將嘗試分解它們并將它們視為一個單一的操作!

1、消息傳遞神經網絡

https://arxiv.org/abs/1704.01212

消息傳遞神經網絡(MPNN)將正向傳播分解為具有消息函數Ml的消息傳遞階段和具有頂點更新函數Ul的讀出階段

MPNN將消息傳遞和聚合步驟合并到單個消息傳遞階段:

圖片

讀取階段是更新步驟:

圖片

其中ml+1v是聚合的消息,hl+1v是更新的節點嵌入。這與我上面提到的過程非常相似。消息函數Ml是F和G的混合,函數Ul是k,其中eij表示可能的邊緣特征,也可以省略。

圖片

2、圖卷積

https://arxiv.org/abs/1609.02907

圖卷積網絡(GCN)論文以鄰接矩陣的形式研究整個圖。在鄰接矩陣中加入自連接,確保所有節點都與自己連接以得到~A。這確保在消息聚合期間考慮源節點的嵌入。合并的消息聚合和更新步驟如下所示:

圖片

其中Wl是一個可學習參數矩陣。這里將X改為H,以泛化任意層l上的節點特征,其中H0=X。

由于矩陣乘法的結合律(A(BC)=(AB)C),我們在哪個序列中乘矩陣并不重要(要么是AHl先乘,然后是Wl后乘,要么是HlWl先乘,然后是A)。作者Kipf和Welling進一步引入了度矩陣~D作為"renormalisation"的一種形式,以避免數值不穩定和爆炸/消失的梯度:

圖片

“renormalisation”是在增廣鄰接矩陣^A=D?12A~D?12上進行的。新的合并消息傳遞和更新步驟如下所示:

圖片

3、圖注意力網絡

https://arxiv.org/abs/1710.10903

聚合通常涉及在和、均值、最大值和最小值設置中平等對待所有鄰居。但是在大多數情況下,一些鄰居比其他鄰居更重要。圖注意力網絡(GAT)通過使用Vaswani等人(2017)的Self-Attention對源節點及其鄰居之間的邊緣進行加權來確保這一點。

邊權值αij如下。

圖片

這里的Wa∈R2d '和W?Rd ' ×d為學習參數,d '為嵌入維數,⊕是向量拼接運算。

雖然最初的消息傳遞步驟與MPNN/GCN相同,但合并的消息聚合和更新步驟是所有鄰居和節點本身的加權和:

圖片

邊緣重要性加權有助于了解鄰居對源節點的影響程度。與GCN一樣,添加了自循環,因此源節點可以將自己的表示形式考慮到未來的表示形式中。

圖片

4、GraphSAGE

https://arxiv.org/abs/1706.02216

GraphSAGE:Graph SAmple and AggreGatE。這是一個為大型、非常密集的圖形生成節點嵌入的模型。

這項工作在節點的鄰域上引入了學習聚合器。不像傳統的gat或GCNs考慮鄰居中的所有節點,GraphSAGE統一地對鄰居進行采樣,并對它們使用學習的聚合器。

假設我們在網絡(深度)中有L層,每一層L∈{1,…,L}查看一個更大的L跳鄰域w.r.t.源節點。然后在通過MLP的F和非線性σ傳遞之前,通過將節點嵌入與采樣消息連接來更新每個源節點。

對于某一層l

圖片

其中⊕是向量拼接運算,N(i)是返回所有鄰居的子集的統一抽樣函數。如果一個節點有5個鄰居{1,2,3,4,5},N(i)可能的輸出將是{1,4,5}或{2,5}。

圖片

Aggregator k=1從1-hop鄰域聚集采樣節點(彩色),而Aggregator k=2從2 -hop鄰域聚集采樣節點(彩色)

論文中用K和K表示層指數。但在本文中分別使用L和L來表示,這是為了和前面的內容保持一致性。此外,論文用v表示源節點i,用u表示鄰居節點j。

5、時間圖網絡

https://arxiv.org/abs/2006.10637

到目前為止所描述的網絡工作在靜態圖上。大多數實際情況都在動態圖上工作,其中節點和邊在一段時間內被添加、刪除或更新。時間圖網絡(TGN)致力于連續時間動態圖(CTDG),它可以表示為按時間順序排列的事件列表。

論文將事件分為兩種類型:節點級事件和交互事件。節點級事件涉及一個孤立的節點(例如:用戶更新他們的個人簡介),而交互事件涉及兩個可能連接也可能不連接的節點(例如:用戶a轉發/關注用戶B)。

TGN提供了一種模塊化的CTDG處理方法,包括以下組件:

  • 消息傳遞函數→孤立節點或交互節點之間的消息傳遞(對于任何類型的事件)。
  • 消息聚合函數→通過查看多個時間步長的時間鄰域,而不是在給定時間步長的局部鄰域,來使用GAT的聚合。
  • 記憶更新→記憶(Memory)允許節點具有長期依賴關系,并表示節點在潛在(“壓縮”)空間中的歷史。這個模塊根據一段時間內發生的交互來更新節點的內存。
  • 時間嵌入→一種表示節點的方法,也能捕捉到時間的本質。
  • 鏈接預測→將事件中涉及的節點的時間嵌入通過一些神經網絡來計算邊緣概率(即,邊緣會在未來發生嗎?)。在訓練過程中,我們知道邊的存在,所以邊的標簽是1,所以需要訓練基于sigmoid的網絡來像往常一樣預測這個。

圖片

每當一個節點參與一個活動(節點更新或節點間交互)時,記憶就會更新。

對于批處理中的每個事件1和2,TGN為涉及該事件的所有節點生成消息。TGN聚合所有時間步長t的每個節點mi的消息;這被稱為節點i的時間鄰域。然后TGN使用聚合消息mi(t)來更新每個節點si(t)的記憶。

圖片

一旦所有節點的內存si(t)是最新的,它就用于計算批處理中特定交互中使用的所有節點的“臨時節點嵌入”zi(t)。然后將這些節點嵌入到MLP或神經網絡中,獲得每個事件發生的概率(使用Sigmoid激活)。這樣可以像往常一樣使用二進制交叉熵(BCE)計算損失。

總結

上面就是我們對圖神經網絡的數學總結,圖深度學習在處理具有類似網絡結構的問題時是一個很好的工具集。它們很容易理解,我們可以使用PyTorch Geometric、spectral、Deep Graph Library、Jraph(jax)以及TensorFlow-gnn來實現。GDL已經顯示出前景,并將繼續作為一個領域發展。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 芯片
    +關注

    關注

    456

    文章

    51019

    瀏覽量

    425407
  • 神經網絡
    +關注

    關注

    42

    文章

    4776

    瀏覽量

    100948
  • 數學
    +關注

    關注

    0

    文章

    99

    瀏覽量

    19265
收藏 人收藏

    評論

    相關推薦

    matlab 神經網絡 數學建模數值分析

    matlab神經網絡 數學建模數值分析 精通的可以討論下
    發表于 09-18 15:14

    matlab 中亮劍數學 全面掌握控制 神經網絡就在腳下

    `如果想學控制,你的數學就是造詣,神經網絡的基礎離散數學數學建模實際問題分析,如何matlab求解,這里給你解答,這里是數學視頻,偏導數分
    發表于 07-30 11:46

    關于開關磁阻電機的matlab BP神經網絡數學建模方面的資料

    求大神們 給點關于開關磁阻電機的matlab BP神經網絡數學建模方面的資料
    發表于 11-17 11:16

    卷積神經網絡入門資料

    卷積神經網絡入門詳解
    發表于 02-12 13:58

    【PYNQ-Z2試用體驗】神經網絡基礎知識

    超過閾值,輸出就一躍而起。但我們一般用S函數作為激活函數。如下圖:2 該函數相比階越函數更加接近現實。神經網絡原理如圖所示是一個具有兩層的神經網絡,每層有兩個神經元。
    發表于 03-03 22:10

    BP神經網絡的基礎數學知識分享

    一文看懂BP神經網絡的基礎數學知識
    發表于 06-16 07:14

    如何構建神經網絡

    原文鏈接:http://tecdat.cn/?p=5725 神經網絡是一種基于現有數據創建預測的計算系統。如何構建神經網絡神經網絡包括:輸入層:根據現有數據獲取輸入的層隱藏層:使用反向傳播優化輸入變量權重的層,以提高模型的預測
    發表于 07-12 08:02

    卷積神經網絡數學原理介紹

    在之前的系列中,我們學習了密集連接的神經網絡(densely connected neural networks)。這些網絡神經元被分成組,形成連續的層,相鄰的兩個層之間的神經元相互
    的頭像 發表于 04-22 11:44 ?4831次閱讀

    深入卷積神經網絡背后的數學原理

    在計算機神經視覺技術的發展過程中,卷積神經網絡成為了其中的重要組成部分,本文對卷積神經網絡數學原理進行了介紹。
    的頭像 發表于 04-25 14:52 ?3573次閱讀

    深度:了解訓練神經網絡時所用到的數學過程

    模型的訓練、調參是一項非常費時費力的工作,了解神經網絡內部的數學原理有利于快速找出問題所在。
    的頭像 發表于 07-15 15:22 ?4113次閱讀
    深度:了解訓練<b class='flag-5'>神經網絡</b>時所用到的<b class='flag-5'>數學</b>過程

    圖解:卷積神經網絡數學原理解析

    圖解:卷積神經網絡數學原理解析 源自:數學中國 過去我們已經知道被稱為緊密連接的神經網絡。這些網絡神經
    的頭像 發表于 09-16 10:01 ?1614次閱讀
    圖解:卷積<b class='flag-5'>神經網絡</b><b class='flag-5'>數學原理</b>解析

    詳解神經網絡數學原理1

    。 本文將流行的神經網絡及其數學細微差別的進行詳細的梳理和解釋,深度學習背后的思想是學習具有節點和邊的的結構和空間特征,這些節點
    的頭像 發表于 03-17 09:58 ?654次閱讀
    <b class='flag-5'>詳解</b><b class='flag-5'>圖</b><b class='flag-5'>神經網絡</b>的<b class='flag-5'>數學原理</b>1

    詳解神經網絡數學原理2

    。 本文將流行的神經網絡及其數學細微差別的進行詳細的梳理和解釋,深度學習背后的思想是學習具有節點和邊的的結構和空間特征,這些節點
    的頭像 發表于 03-17 09:58 ?536次閱讀
    <b class='flag-5'>詳解</b><b class='flag-5'>圖</b><b class='flag-5'>神經網絡</b>的<b class='flag-5'>數學原理</b>2

    神經網絡數學建模中的應用

    數學建模是一種利用數學方法和工具來描述和分析現實世界問題的過程。神經網絡是一種模擬人腦神經元結構和功能的計算模型,可以用于解決各種復雜問題。在數學
    的頭像 發表于 07-02 11:29 ?1018次閱讀

    數學建模神經網絡模型的優缺點有哪些

    數學建模神經網絡模型是一種基于人工神經網絡數學建模方法,它通過模擬人腦神經元的連接和信息傳遞機制,對復雜系統進行建模和分析。
    的頭像 發表于 07-02 11:36 ?956次閱讀
    主站蜘蛛池模板: 久久奇米| 高清国产下药迷倒美女| 欧美大色网| 久久天天躁夜夜躁狠狠85台湾| 天天做天天爱天天一爽一毛片| 丁香六月在线| 日日噜噜爽爽狠狠视频| 免费看黄在线| 天天综合网在线| 奇米影视777四色米奇影院| 亚洲福利午夜| 91p0rn永久备用地址二| 国模私拍福利一区二区| 欧美高清一级片| 日日噜噜噜夜夜爽爽狠狠图片| 色91在线| 精品久久久久久婷婷| 美女视频永久黄网站免费观看国产| 色偷偷97| 色偷偷成人网免费视频男人的天堂| 日本三级日产三级国产三级| 色日本视频| 色免费在线观看| 久久羞羞视频| 久久精品夜色国产| 爱爱动态视频免费视频| 丁香视频在线观看播放| 天天操天天碰| 久久草在线观看| 国产无套视频在线观看香蕉| 久久综合九色| www.欧美黄色| 456亚洲人成影院在线观| 在线婷婷| 久久免费观看国产精品| 国产无套粉嫩白浆| 2017天天天天做夜夜夜做| 操她射她| 中文字字幕码一二区| 怡红院亚洲怡红院首页| 亚洲成人三级|