在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

詳解圖神經(jīng)網(wǎng)絡的數(shù)學原理1

jf_78858299 ? 來源:人工智能大講堂 ? 作者:人工智能大講堂 ? 2023-03-17 09:58 ? 次閱讀

深度學習(Graph Deep Learning) 多年來一直在加速發(fā)展。許多現(xiàn)實生活問題使GDL成為萬能工具:在社交媒體、藥物發(fā)現(xiàn)、芯片植入、預測、生物信息學等方面都顯示出了很大的前景。

本文將流行的圖神經(jīng)網(wǎng)絡及其數(shù)學細微差別的進行詳細的梳理和解釋,圖深度學習背后的思想是學習具有節(jié)點和邊的圖的結構和空間特征,這些節(jié)點和邊表示實體及其交互。

圖片

在我們進入圖神經(jīng)網(wǎng)絡之前,讓我們先來探索一下計算機科學中的圖是什么。

圖G(V,E)是包含一組頂點(節(jié)點)i∈v和一組連接頂點i和j的邊eij∈E的數(shù)據(jù)結構,如果連接兩個節(jié)點i和j,則eij=1,否則eij=0。可以將連接信息存儲在鄰接矩陣A中:

圖片

我假設本文中的圖是無加權的(沒有邊權值或距離)和無向的(節(jié)點之間沒有方向關聯(lián)),并且假設這些圖是同質(zhì)的(單一類型的節(jié)點和邊;相反的是“異質(zhì)”)。

圖與常規(guī)數(shù)據(jù)的不同之處在于,它們具有神經(jīng)網(wǎng)絡必須尊重的結構;不利用它就太浪費了。下面的圖是一個社交媒體圖的例子,節(jié)點是用戶,邊是他們的互動(比如關注/點贊/轉(zhuǎn)發(fā))。

圖片

對于圖像來說,圖像本身就是一個圖!這是一種叫做“網(wǎng)格圖”的特殊變體,其中對于所有內(nèi)部節(jié)點和角節(jié)點,來自節(jié)點的外向邊的數(shù)量是恒定的。在圖像網(wǎng)格圖中存在一些一致的結構,允許對其執(zhí)行簡單的類似卷積的操作。

圖像可以被認為是一種特殊的圖,其中每個像素都是一個節(jié)點,并通過虛線與周圍的其他像素連接。當然,以這種方式查看圖像是不切實際的,因為這意味著需要一個非常大的圖。例如,32×32×3的一個簡單的CIFAR-10圖像會有3072個節(jié)點和1984條邊。對于224×224×3的較大ImageNet圖像,這些數(shù)字會更大。

圖片

與圖片相比,圖的不同的節(jié)點與其他節(jié)點的連接數(shù)量不同,并且沒有固定的結構,但是就是這種結構為圖增加了價值。

圖神經(jīng)網(wǎng)絡

單個圖神經(jīng)網(wǎng)絡(GNN)層有一堆步驟,在圖中的每個節(jié)點上會執(zhí)行:

這些組成了對圖形進行學習的構建塊,GDL的創(chuàng)新都是在這3個步驟的進行的改變。

節(jié)點

節(jié)點表示一個實體或?qū)ο螅缬脩艋蛟印R虼斯?jié)點具有所表示實體的一系列屬性。這些節(jié)點屬性形成了節(jié)點的特征(即“節(jié)點特征”或“節(jié)點嵌入”)。

通常,這些特征可以用Rd中的向量表示. 這個向量要么是潛維嵌入,要么是以每個條目都是實體的不同屬性的方式構造的。

例如,在社交媒體圖中,用戶節(jié)點具有可以用數(shù)字表示的年齡、性別、政治傾向、關系狀態(tài)等屬性。在分子圖中,原子節(jié)點可能具有化學性質(zhì),如對水的親和力、力、能量等,也可以用數(shù)字表示。

這些節(jié)點特征是GNN的輸入,每個節(jié)點i具有關聯(lián)的節(jié)點特征xi∈Rd和標簽yi(可以是連續(xù)的,也可以是離散的,就像單獨編碼一樣)。

圖片

邊也可以有特征aij∈Rd '例如,在邊緣有意義的情況下(如原子之間的化學鍵)。我們可以把下面的分子想象成一個圖,其中原子是節(jié)點,鍵是邊。雖然原子節(jié)點本身有各自的特征向量,但邊可以有不同的邊特征,編碼不同類型的鍵(單鍵、雙鍵、三鍵)。不過為了簡單起見,在本文中我將省略邊的特性。

圖片

現(xiàn)在我們知道了如何在圖中表示節(jié)點和邊,讓我們從一個具有一堆節(jié)點(具有節(jié)點特征)和邊的簡單圖開始。

圖片

消息傳遞

gnn以其學習結構信息的能力而聞名。通常,具有相似特征或?qū)傩缘墓?jié)點相互連接(比如在社交媒體中)。GNN利用學習特定節(jié)點如何以及為什么相互連接,GNN會查看節(jié)點的鄰域。

鄰居Ni,節(jié)點I的集合定義為通過邊與I相連的節(jié)點j的集合。形式為Ni={j: eij∈E}。

圖片

一個人被他所處的圈子所影響。類似地GNN可以通過查看其鄰居Ni中的節(jié)點i來了解很多關于節(jié)點i的信息。為了在源節(jié)點i和它的鄰居節(jié)點j之間實現(xiàn)這種信息共享,gnn進行消息傳遞。

對于GNN層,消息傳遞被定義為獲取鄰居的節(jié)點特征,轉(zhuǎn)換它們并將它們“傳遞”給源節(jié)點的過程。對于圖中的所有節(jié)點,并行地重復這個過程。這樣,在這一步結束時,所有的鄰域都將被檢查。

讓我們放大節(jié)點6并檢查鄰域N6={1,3,4}。我們?nèi)∶總€節(jié)點特征x1、x3和x4,用函數(shù)F對它們進行變換,函數(shù)F可以是一個簡單的神經(jīng)網(wǎng)絡(MLP或RNN),也可以是仿射變換F(xj)=Wj?xj+b。簡單地說,“消息”是來自源節(jié)點的轉(zhuǎn)換后的節(jié)點特征。

圖片

F 可以是簡單的仿射變換或神經(jīng)網(wǎng)絡。現(xiàn)在我們設F(xj)=Wj?xj為了方便計算 ? 表示簡單的矩陣乘法。

聚合

現(xiàn)在我們有了轉(zhuǎn)換后的消息{F(x1),F(xiàn)(x3),F(xiàn)(x4)}傳遞給節(jié)點6,下面就必須以某種方式聚合(“組合”)它們。有很多方法可以將它們結合起來。常用的聚合函數(shù)包括:

圖片

假設我們使用函數(shù)G來聚合鄰居的消息(使用sum、mean、max或min)。最終聚合的消息可以表示為:

圖片

更新

使用這些聚合消息,GNN層就要更新源節(jié)點i的特性。在這個更新步驟的最后,節(jié)點不僅應該知道自己,還應該知道它的鄰居。這是通過獲取節(jié)點i的特征向量并將其與聚合的消息相結合來操作的,一個簡單的加法或連接操作就可以解決這個問題。

使用加法

圖片

其中σ是一個激活函數(shù)(ReLU, ELU, Tanh), H是一個簡單的神經(jīng)網(wǎng)絡(MLP)或仿射變換,K是另一個MLP,將加法的向量投影到另一個維度。

使用連接:

圖片

為了進一步抽象這個更新步驟,我們可以將K看作某個投影函數(shù),它將消息和源節(jié)點嵌入一起轉(zhuǎn)換:

圖片

初始節(jié)點特征稱為xi,在經(jīng)過第一GNN層后,我們將節(jié)點特征變?yōu)閔i。假設我們有更多的GNN層,我們可以用hli表示節(jié)點特征,其中l(wèi)是當前GNN層索引。同樣,顯然h0i=xi(即GNN的輸入)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關注

    關注

    456

    文章

    51019

    瀏覽量

    425416
  • 神經(jīng)網(wǎng)絡

    關注

    42

    文章

    4776

    瀏覽量

    100952
  • 數(shù)學
    +關注

    關注

    0

    文章

    99

    瀏覽量

    19265
收藏 人收藏

    評論

    相關推薦

    matlab 神經(jīng)網(wǎng)絡 數(shù)學建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡 數(shù)學建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14

    matlab 中亮劍數(shù)學 全面掌握控制 神經(jīng)網(wǎng)絡就在腳下

    `如果想學控制,你的數(shù)學就是造詣,神經(jīng)網(wǎng)絡的基礎離散數(shù)學數(shù)學建模實際問題分析,如何matlab求解,這里給你解答,這里是數(shù)學視頻,偏導數(shù)分
    發(fā)表于 07-30 11:46

    關于開關磁阻電機的matlab BP神經(jīng)網(wǎng)絡數(shù)學建模方面的資料

    求大神們 給點關于開關磁阻電機的matlab BP神經(jīng)網(wǎng)絡數(shù)學建模方面的資料
    發(fā)表于 11-17 11:16

    卷積神經(jīng)網(wǎng)絡入門資料

    卷積神經(jīng)網(wǎng)絡入門詳解
    發(fā)表于 02-12 13:58

    【PYNQ-Z2試用體驗】神經(jīng)網(wǎng)絡基礎知識

    學習和認知科學領域,是一種模仿生物神經(jīng)網(wǎng)絡(動物的中樞神經(jīng)系統(tǒng),特別是大腦)的結構和功能的數(shù)學模型或計算模型,用于對函數(shù)進行估計或近似。神經(jīng)網(wǎng)絡由大量的人工
    發(fā)表于 03-03 22:10

    BP神經(jīng)網(wǎng)絡的基礎數(shù)學知識分享

    一文看懂BP神經(jīng)網(wǎng)絡的基礎數(shù)學知識
    發(fā)表于 06-16 07:14

    如何構建神經(jīng)網(wǎng)絡

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預測的計算系統(tǒng)。如何構建神經(jīng)網(wǎng)絡神經(jīng)網(wǎng)絡包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權重的層,以提高模型的預測
    發(fā)表于 07-12 08:02

    卷積神經(jīng)網(wǎng)絡數(shù)學原理介紹

    在之前的系列中,我們學習了密集連接的神經(jīng)網(wǎng)絡(densely connected neural networks)。這些網(wǎng)絡神經(jīng)元被分成組,形成連續(xù)的層,相鄰的兩個層之間的神經(jīng)元相互
    的頭像 發(fā)表于 04-22 11:44 ?4831次閱讀

    深入卷積神經(jīng)網(wǎng)絡背后的數(shù)學原理

    在計算機神經(jīng)視覺技術的發(fā)展過程中,卷積神經(jīng)網(wǎng)絡成為了其中的重要組成部分,本文對卷積神經(jīng)網(wǎng)絡數(shù)學原理進行了介紹。
    的頭像 發(fā)表于 04-25 14:52 ?3573次閱讀

    深度:了解訓練神經(jīng)網(wǎng)絡時所用到的數(shù)學過程

    模型的訓練、調(diào)參是一項非常費時費力的工作,了解神經(jīng)網(wǎng)絡內(nèi)部的數(shù)學原理有利于快速找出問題所在。
    的頭像 發(fā)表于 07-15 15:22 ?4113次閱讀
    深度:了解訓練<b class='flag-5'>神經(jīng)網(wǎng)絡</b>時所用到的<b class='flag-5'>數(shù)學</b>過程

    圖解:卷積神經(jīng)網(wǎng)絡數(shù)學原理解析

    圖解:卷積神經(jīng)網(wǎng)絡數(shù)學原理解析 源自:數(shù)學中國 過去我們已經(jīng)知道被稱為緊密連接的神經(jīng)網(wǎng)絡。這些網(wǎng)絡神經(jīng)
    的頭像 發(fā)表于 09-16 10:01 ?1614次閱讀
    圖解:卷積<b class='flag-5'>神經(jīng)網(wǎng)絡</b><b class='flag-5'>數(shù)學原理</b>解析

    詳解神經(jīng)網(wǎng)絡數(shù)學原理2

    。 本文將流行的神經(jīng)網(wǎng)絡及其數(shù)學細微差別的進行詳細的梳理和解釋,深度學習背后的思想是學習具有節(jié)點和邊的的結構和空間特征,這些節(jié)點
    的頭像 發(fā)表于 03-17 09:58 ?537次閱讀
    <b class='flag-5'>詳解</b><b class='flag-5'>圖</b><b class='flag-5'>神經(jīng)網(wǎng)絡</b>的<b class='flag-5'>數(shù)學原理</b>2

    詳解神經(jīng)網(wǎng)絡數(shù)學原理3

    。 本文將流行的神經(jīng)網(wǎng)絡及其數(shù)學細微差別的進行詳細的梳理和解釋,深度學習背后的思想是學習具有節(jié)點和邊的的結構和空間特征,這些節(jié)點
    的頭像 發(fā)表于 03-17 09:58 ?955次閱讀
    <b class='flag-5'>詳解</b><b class='flag-5'>圖</b><b class='flag-5'>神經(jīng)網(wǎng)絡</b>的<b class='flag-5'>數(shù)學原理</b>3

    神經(jīng)網(wǎng)絡數(shù)學建模中的應用

    數(shù)學建模是一種利用數(shù)學方法和工具來描述和分析現(xiàn)實世界問題的過程。神經(jīng)網(wǎng)絡是一種模擬人腦神經(jīng)元結構和功能的計算模型,可以用于解決各種復雜問題。在數(shù)學
    的頭像 發(fā)表于 07-02 11:29 ?1019次閱讀

    數(shù)學建模神經(jīng)網(wǎng)絡模型的優(yōu)缺點有哪些

    數(shù)學建模神經(jīng)網(wǎng)絡模型是一種基于人工神經(jīng)網(wǎng)絡數(shù)學建模方法,它通過模擬人腦神經(jīng)元的連接和信息傳遞機制,對復雜系統(tǒng)進行建模和分析。
    的頭像 發(fā)表于 07-02 11:36 ?957次閱讀
    主站蜘蛛池模板: 男女交性视频播放 视频 视频| www国产永久免费视频看看| 深夜视频在线播放视频在线观看免费观看 | 黄色日批网站| 午夜一级影院| 天堂资源8中文最新版在线| 99精品视频免费| 午夜污片| 狠狠插天天干| 国产网站黄色| 性性欧美| 黄色靠逼网站| 五月婷婷六月丁香激情| 亚洲免费视频网址| 91三级视频| 狠狠色噜噜狠狠狠狠98| 福利99| 好爽好紧好大的免费视频国产| www.夜夜骑| 又粗又大撑满了好爽| 中国一级特黄真人毛片免费看| 亚洲卡一卡2卡三卡4卡国色| 男男互攻h啪肉np文厉世| 亚洲成网| 美女黄页网| 亚洲黄页网站| 五月激情丁香网| 在线资源天堂| 最近2018年中文字幕在线| 婷婷影院在线综合免费视频| 一级毛片ab片高清毛片| 在线看av的网址| 三级黄色片在线播放| 99热手机在线观看| 天天色天天拍| 日韩精品一区二区在线观看| 综合网 色天使| 色老头永久免费网站| 日本精高清区一| 亚洲 欧美 精品| 四虎永久免费观看|