《電子技術應用》
您所在的位置:首頁 > 通信與網絡 > 設計應用 > 基于直接高階注意力和多尺度路由的圖神經網絡
基于直接高階注意力和多尺度路由的圖神經網絡
信息技術與網絡安全 6期
楊廣乾,李金龍
(中國科學技術大學 計算機科學與技術學院,安徽 合肥230026)
摘要: 圖神經網絡中的注意力機制在處理圖結構化數據方面表現出優(yōu)異的性能。傳統(tǒng)的圖注意力計算直接連接的節(jié)點之間的注意力,并通過堆疊層數隱式獲取高階信息。盡管在圖注意力機制方面目前已有廣泛的研究,但用于注意力計算的堆疊范式在建模遠程依賴方面效果較差。為了提高表達能力,設計了一種新穎的直接注意力機制,這一機制通過K階鄰接矩陣直接計算高階鄰居之間的注意力。通過自適應路由聚合過程進一步傳播高階信息,這使得聚合過程更靈活地適應不同圖的特性。在引文網絡上的節(jié)點分類任務上進行了大量的實驗。實驗表明,該方法優(yōu)于最先進的基線模型。
中圖分類號: TP391
文獻標識碼: A
DOI: 10.19358/j.issn.2096-5133.2022.06.011
引用格式: 楊廣乾,李金龍. 基于直接高階注意力和多尺度路由的圖神經網絡[J].信息技術與網絡安全,2022,41(6):64-72.
Direct high-order attention and multi-scale routing for graph neural networks
Yang Guangqian,Li Jinlong
(School of Computer Science and Technology,University of Science and Technology of China,Hefei 230026,China)
Abstract: Recently, the attention mechanism in Graph Neural Networks shows excellent performance in processing graph structured data. Traditional graph attention calculates the attention between directly connected nodes, and implicitly gets high-order information by stacking layers. Despite the extensive research about the graph attention mechanism, we argue that the stacking paradigm for attention calculation is less effective in modeling long-range dependency. To improve the expression ability, we design a novel direct attention mechanism, which directly calculates attention between higher-order neighbors via K-power adjacency matrix. We further propagate the higher-order information with an adaptive routing aggregation process, which makes the aggregation more flexible to adjust to the property of different graphs. We perform extensive experiments on node classifications on citation networks. Experiments shows that our method consistently outperforms the state-of-the-art baselines, which validates the effectiveness of our method.
Key words : graph neural networks;attention;dynamic routing

0 引言

圖結構化數據廣泛存在于現實世界中,圖神經網絡(GNN)已被證明可以有效地學習圖結構化數據背后的知識[1-2]。圖神經網絡基于傳播機制,通過聚合圖中節(jié)點的鄰居信息來學習潛在表示,可以用于下游任務,例如節(jié)點分類[2-3]、圖分類[4-5]、連接預測等。

受自然語言處理和計算機視覺中注意力機制的啟發(fā),研究人員也開始探索圖結構學習中的注意力機制。最廣泛使用的注意力機制是圖注意力網絡,它已被證明具有出色的性能。圖注意力在消息傳遞過程中計算每對鄰居的注意力分數,以衡量節(jié)點的重要性,使得圖中的歸納學習成為可能?;谶@項工作,后續(xù)工作[9-11]又進行了許多對圖注意力的研究。





本文詳細內容請下載http://www.viuna.cn/resource/share/2000004537





作者信息:

楊廣乾,李金龍

(中國科學技術大學 計算機科學與技術學院,安徽 合肥230026)


此內容為AET網站原創(chuàng),未經授權禁止轉載。
主站蜘蛛池模板: 污黄视频在线观看 | 手机在线观看视频你懂的 | 狼人香蕉网 | 一级毛片视频免费 | 国产三级精品三级在专区中文 | 天天干天天综合 | 骚片在线观看 | 成年人在线 | 中文字幕免费观看 | 55夜色66夜色欧洲精品 | 成年影院在线看网站免费 | 小明在看看永久免费平台 | 羞羞在线 | 玖草福利视频 | 天天射夜夜骑 | 黄色免费网站观看 | 55夜色66夜色国产亚洲精品区 | 欧美在线精品一区二区在线观看 | 免费一级毛片能看的 | 亚洲日韩中文字幕天堂不卡 | 丝袜美腿中文字幕 | 天天尻| 麻豆亚洲一区 | 日韩欧美高清一区 | 亚洲女同志videos | 视频一区二区三区在线观看 | 日韩亚洲国产综合久久久 | 97干婷婷 | 成人影片播放 | 小明天天看成人免费看 | 日韩黄色影片 | 欧美日韩影视 | 国产日产欧产精品精品推荐在线 | 欧美性另类69xxxx极品 | 久草手机视频在线观看 | 欧美黄网在线 | 成人片在线视频 | 怡红院成人网 | 一级生活毛片 | 91精品视频免费在线观看 | 天天爱天天操 |