18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ICML 2023 | 對多重圖進(jìn)行解耦的表示學(xué)習(xí)方法

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:未知 ? 2023-09-24 20:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

wKgaomUkfuqAZtgxAAAl6LOgh3c601.png

Introduction

無監(jiān)督多重圖表示學(xué)習(xí)(UMGRL)受到越來越多的關(guān)注,但很少有工作同時關(guān)注共同信息和私有信息的提取。在本文中,我們認(rèn)為,為了進(jìn)行有效和魯棒的 UMGRL,提取完整和干凈的共同信息以及更多互補(bǔ)性和更少噪聲的私有信息至關(guān)重要。

為了實(shí)現(xiàn)這一目標(biāo),我們首先研究了用于多重圖的解纏表示學(xué)習(xí),以捕獲完整和干凈的共同信息,并設(shè)計了對私有信息進(jìn)行對比約束,以保留互補(bǔ)性并消除噪聲。此外,我們在理論上分析了我們方法學(xué)到的共同和私有表示可以被證明是解纏的,并包含更多與任務(wù)相關(guān)和更少與任務(wù)無關(guān)的信息,有利于下游任務(wù)。大量實(shí)驗(yàn)證實(shí)了所提方法在不同下游任務(wù)方面的優(yōu)越性。

wKgaomUkfuqAVfjYAABHPPBGdKY217.png

論文標(biāo)題:

Disentangled Multiplex Graph Representation Learning

論文鏈接:

https://openreview.net/pdf?id=lYZOjMvxws

代碼鏈接:

https://github.com/YujieMo/DMG

wKgaomUkfuqAGHq2AAAuhh9-KLM945.png

Motivation

以前的 UMGRL 方法旨在隱式提取不同圖之間的共同信息,這對于揭示樣本的身份是有效和魯棒的。然而,它們通常忽視了每個圖的私有信息中的互補(bǔ)性,并可能失去節(jié)點(diǎn)之間的重要屬性。

例如,在多重圖中,其中論文是節(jié)點(diǎn),邊代表兩個不同圖中的共同主題或共同作者。如果一個私有邊(例如,共同主題關(guān)系)僅存在于某個圖中,并連接來自相同類別的兩篇論文,它有助于通過提供互補(bǔ)信息來降低類內(nèi)差距,從而識別論文。因此,有必要同時考慮共同信息和私有信息,以實(shí)現(xiàn) UMGRL 的有效性和魯棒性。

基于有助于識別樣本的共同信息,捕獲不同圖之間的所有共同信息(即完整的)是直觀的。此外,這種完整的共同信息應(yīng)該僅包含共同信息(即干凈的)。相反,如果共同信息包含其他混淆的內(nèi)容,共同信息的質(zhì)量可能會受到損害。

因此,第一個問題出現(xiàn)了:如何獲得完整和干凈的共同信息?另一方面,私有信息是互補(bǔ)性和噪聲的混合。考慮引文網(wǎng)絡(luò)的同一個示例,如果私有邊連接來自不同類別的兩篇論文,它可能會干擾消息傳遞,應(yīng)該作為噪聲被刪除。因此,第二個問題出現(xiàn)了:如何保留私有信息中的互補(bǔ)性并去除噪聲?

然而,以前的 UMGRL 方法很少探討了上述問題。最近,已經(jīng)開發(fā)了解耦表示學(xué)習(xí)方法,以獲得共同和私有表示,但由于多重圖中節(jié)點(diǎn)之間的復(fù)雜關(guān)系以及圖結(jié)構(gòu)中的互補(bǔ)性和噪聲,將它們應(yīng)用于解決 UMGRL 中的上述問題是具有挑戰(zhàn)性的。為此,我們提出了一種新的解耦多重圖表示學(xué)習(xí)框架,以回答上述兩個問題。

wKgaomUkfuqAGClPAAAtJ0fTuoM407.png

Method wKgaomUkfuuAFKzpAAOcVeoAsDo707.png

Notations

表示多重圖,表示多重圖中的第 張圖,表示圖的數(shù)量。

本文模型 DMG 首先通過一個共同變量 學(xué)習(xí)到經(jīng)過解耦的共同表示以及私有表示,接著獲取到融合表示。

3.1 Common Information Extraction

以前的 UMGRL 方法(例如,圖之間的對比學(xué)習(xí)方法)通常通過最大化兩個圖之間的互信息來隱式捕獲不同圖之間的共同模式。例如,為了提取共同信息,STENCIL(Zhu等人,2022)最大化每個圖與聚合圖之間的互信息,而 CKD(Zhou等人,2022)最大化不同圖中區(qū)域表示和全局表示之間的互信息。

然而,由于它們未能將共同信息與私有信息解耦,因此這些努力不能明確地捕獲完整且干凈的共同信息。為了解決這個問題,本文研究了解耦表示學(xué)習(xí),以獲得完整且 clean 的共同信息。

具體地,首先使用圖卷積層 生成節(jié)點(diǎn)表示

wKgaomUkfuuABQ8NAAAvkkAdEjM107.png

表示一個帶權(quán)重的自環(huán); 表示度矩陣; 表示卷積層 的權(quán)重矩陣。

接著使用 MLP 來促進(jìn)每張圖共同和私有信息的解耦過程,分別將節(jié)點(diǎn)嵌入 映射為共同表示和私有表示 。 給定每張圖的共同表示 ,對齊這些表示最簡單的方法使讓它們彼此相等。然而這樣做會影響共同表示的質(zhì)量。在本文中,我們通過奇異值分解操作引入了一個具有正交性和零均值的公共變量 到共同表示中。然后,我們對公共表示 與公共變量 之間進(jìn)行匹配損失,旨在逐漸對齊來自不同圖的共同表示,以捕獲它們之間的完整共同信息。匹配損失的公式如下:wKgaomUkfuuAN_OnAABm6_AnC5s014.png的作用是作為所有圖共同表示之間的一個橋梁,使得這些表示具有較好的一致性:。

然后,為了解耦公共和私有表示,我們必須強(qiáng)化它們之間的統(tǒng)計獨(dú)立性。值得注意的是,如果公共和私有表示在統(tǒng)計上是獨(dú)立的,那么必須滿足:

wKgaomUkfuuAfQVjAAA1rUFYpCg594.png

顯然,通過最小化 之間的相關(guān)性,可以實(shí)現(xiàn)公共和私有表示之間的獨(dú)立性。特別是,相關(guān)性損失是通過計算 Pearson 相關(guān)系數(shù)來獲得的,即:wKgaomUkfuuAIf8PAABc_K2L0zc801.png我們期望通過匹配損失(即獲得完整的共同信息)和相關(guān)性損失(即獲得干凈的共同信息)來獲得清晰的共同表示 中的共同信息。然而,在無監(jiān)督框架下,學(xué)得的共同和私有表示可能是微不足道的解決方案。 常見的解決方案包括對比學(xué)習(xí)方法和自編碼器方法。對比學(xué)習(xí)方法引入大量負(fù)樣本以避免微不足道的解決方案,但可能會引入大量的內(nèi)存開銷。自編碼器方法采用自編碼器框架,通過重構(gòu)損失來促進(jìn)編碼器的可逆性,以防止微不足道的解決方案。然而,現(xiàn)有的圖自編碼器旨在重構(gòu)直接的邊緣,忽略了拓?fù)浣Y(jié)構(gòu),并且計算成本高昂。 為了解決上述問題,我們研究了一種新的重構(gòu)損失,以同時重構(gòu)節(jié)點(diǎn)特征和拓?fù)浣Y(jié)構(gòu)。具體而言,我們首先將共同和私有表示連接在一起,然后使用重構(gòu)網(wǎng)絡(luò) 獲得重構(gòu)的節(jié)點(diǎn)表示 。我們進(jìn)一步進(jìn)行特征重構(gòu)和拓?fù)渲貥?gòu)損失,以分別重構(gòu)節(jié)點(diǎn)特征和局部拓?fù)浣Y(jié)構(gòu)。因此,重構(gòu)損失可以表述為:wKgaomUkfuyACBs_AABGcDUoCZA710.png

, 表示采樣的鄰居數(shù)。

在上式中第一項(xiàng)鼓勵 重構(gòu)原始節(jié)點(diǎn)特征,第二項(xiàng)鼓勵 重構(gòu)拓?fù)浣Y(jié)構(gòu)。

3.2 Private Information Constraint

私有信息是補(bǔ)充信息和噪音的混合物。因此,鑒于學(xué)習(xí)到的私有表示,我們希望進(jìn)一步回答 3.1 節(jié)中的第二個問題,即保留補(bǔ)充信息并消除私有信息中的噪聲。此外,多重圖的私有信息主要位于每個圖的圖結(jié)構(gòu)中,因?yàn)椴煌瑘D的節(jié)點(diǎn)特征是從共享特征矩陣 X 生成的。因此,我們研究了在每個圖結(jié)構(gòu)中保留互補(bǔ)邊并去除噪聲邊。

首先提供了以下有關(guān)圖結(jié)構(gòu)中補(bǔ)充信息和噪聲的定義:
  • 圖 上的任意私有邊,即 ,若節(jié)點(diǎn)對 所屬的類別相同,那么 將是圖 的一條補(bǔ)充邊,否則是一條噪聲邊。
根據(jù)定義 3.2,每個圖中的私有信息分為兩部分,即補(bǔ)充邊和噪聲邊,根據(jù)節(jié)點(diǎn)對的類別。然而,在無監(jiān)督方式下,節(jié)點(diǎn)標(biāo)簽不可用。為解決這個問題,在這項(xiàng)工作中,我們將節(jié)點(diǎn)對(vi, vj)的標(biāo)簽信息近似為共同變量 之間的余弦相似度:wKgaomUkfuyAfpVoAAAdVBUNh_A185.png ?給定邊集 中所有節(jié)點(diǎn)對的余弦相似度,進(jìn)一步假設(shè)具有最高相似度的節(jié)點(diǎn)對屬于同一類,具有低相似度的節(jié)點(diǎn)對屬于不同類。因此,對于連接節(jié)點(diǎn)的高相似性邊是補(bǔ)充邊,表示為 ,而對于連接節(jié)點(diǎn)的低相似性邊是噪聲邊,表示為 。直觀地,應(yīng)保留補(bǔ)充邊,而應(yīng)刪除噪聲邊。

設(shè)計了一個對比模塊,用于進(jìn)行對比損失:

wKgaomUkfuyARvQ0AABMx0GFwa4225.png

3.3 Objective Function

wKgaomUkfuyAQlDZAAAlJTzDbvE765.png

經(jīng)過優(yōu)化,預(yù)計所提出的 DMG 將獲得完整且干凈的公共表示,以及更多互補(bǔ)性和更少噪聲的私有表示,以實(shí)現(xiàn)有效且穩(wěn)健的 UMGRL)。然進(jìn)行平均池化(LeCun等人,1989)來融合所有圖的私有表示,以獲得總體的私有表示 P,即

wKgaomUkfuyADKqjAAAahdKicYQ162.png

最后,我們將總體的私有表示 P 與共同變量 S 連接起來,獲得最終的表示 Z。

wKgaomUkfuyARpcyAAAr2pbNr48206.png

Experiments

4.1 Node Classification

wKgaomUkfu2AWKwiAAZ8K96J5VQ663.png

4.2 Node Clustering

wKgaomUkfu2ASdYNAAQCp_M5_UQ687.png

4.3 Single-view graph datasets

wKgaomUkfu2ATRbIAAUw1jhX_cg715.png

wKgaomUkfu6AZ8zhAAAtTL4L6hI450.png

Conclusion

本文提出了一個用于多重圖的解耦表示學(xué)習(xí)框架。為實(shí)現(xiàn)這一目標(biāo),我們首先解耦了共同表示和私有表示,以捕獲完整和干凈的共同信息。我們進(jìn)一步設(shè)計了對私有信息進(jìn)行對比約束,以保留互補(bǔ)性并消除噪聲。理論分析表明,我們方法學(xué)到的共同和私有表示可以被證明是解耦的,包含更多與任務(wù)相關(guān)的信息和更少與任務(wù)無關(guān)的信息,有利于下游任務(wù)。廣泛的實(shí)驗(yàn)結(jié)果表明,所提出的方法在不同的下游任務(wù)中在有效性和魯棒性方面始終優(yōu)于現(xiàn)有方法。

·


原文標(biāo)題:ICML 2023 | 對多重圖進(jìn)行解耦的表示學(xué)習(xí)方法

文章出處:【微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:ICML 2023 | 對多重圖進(jìn)行解耦的表示學(xué)習(xí)方法

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    蘭州大學(xué):研究阻抗實(shí)現(xiàn)高精度自供能多模傳感

    近日,蘭州大學(xué)材料與能源學(xué)院研究團(tuán)隊(duì)提出阻抗策略用于提高自供能傳感系統(tǒng)中的傳感精度,實(shí)現(xiàn)高精度多模態(tài)傳感。 隨著物聯(lián)網(wǎng)和5G技術(shù)的飛速發(fā)展,利用環(huán)境能量供電的自供能傳感技術(shù)愈發(fā)重要。但是,由于
    的頭像 發(fā)表于 07-23 11:26 ?932次閱讀
    蘭州大學(xué):研究阻抗<b class='flag-5'>解</b><b class='flag-5'>耦</b>實(shí)現(xiàn)高精度自供能多模傳感

    ARM入門學(xué)習(xí)方法分享

    。 以下是一些入門學(xué)習(xí)方法的分享: 一、 理解基本概念:首先,了解ARM是什么以及它的基本概念是很重要的。ARM(Advanced RISC Machines)指的是一種精簡指令集計算機(jī)(RISC
    發(fā)表于 07-23 10:21

    無軸承異步電機(jī)氣隙磁場定向逆控制

    方法是近年來針對復(fù)雜非線性系統(tǒng)提出的一種直接反饋線性化方法,可被用于無軸承電機(jī)這一多變量非線性對象的動態(tài)控制。關(guān)于無軸承異步電機(jī)逆系統(tǒng)
    發(fā)表于 07-14 17:43

    無軸承異步電機(jī)的RFOC逆動態(tài)控制

    進(jìn)行了轉(zhuǎn)速和轉(zhuǎn)子磁鏈之間、兩個徑向位移分量之間的動態(tài)控制方法研究,給出了逆動態(tài)控制系統(tǒng)結(jié)
    發(fā)表于 07-14 17:35

    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室兩篇論文入選ICML 2025

    ICML(International Conference on Machine Learning)是機(jī)器學(xué)習(xí)領(lǐng)域的頂級學(xué)術(shù)會議之一,由國際機(jī)器學(xué)習(xí)學(xué)會(IMLS)主辦,被中國計算機(jī)學(xué)會認(rèn)定為A類
    的頭像 發(fā)表于 06-16 09:23 ?1133次閱讀
    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室兩篇論文入選<b class='flag-5'>ICML</b> 2025

    軟硬+模塊化:深度拆解開放架構(gòu)的“自由”基因

    ET2500系列應(yīng)運(yùn)而生——這款基于開放架構(gòu)的智能業(yè)務(wù)處理平臺,通過算網(wǎng)融合芯片與模塊化設(shè)計,實(shí)現(xiàn)軟硬件,將網(wǎng)絡(luò)、路由、安全等功能集成于單一設(shè)備,為中小企業(yè)提供高性能、易維護(hù)的一體化解決方案
    的頭像 發(fā)表于 06-09 15:42 ?786次閱讀
    軟硬<b class='flag-5'>解</b><b class='flag-5'>耦</b>+模塊化:深度拆解開放架構(gòu)的“自由”基因

    第一章 W55MH32 高性能以太網(wǎng)單片機(jī)的學(xué)習(xí)方法概述

    本章介紹W55MH32的學(xué)習(xí)方法,建議先了解硬件資源,按基礎(chǔ)篇、入門篇循序漸進(jìn)學(xué)習(xí)。參考兩份手冊,提供例程資料,還給出官網(wǎng)、github 等學(xué)習(xí)資料查找渠道。讓我們一起踏上W55MH32高性能以太網(wǎng)單片機(jī)的
    的頭像 發(fā)表于 05-26 09:07 ?426次閱讀
    第一章 W55MH32 高性能以太網(wǎng)單片機(jī)的<b class='flag-5'>學(xué)習(xí)方法</b>概述

    使用MATLAB進(jìn)行無監(jiān)督學(xué)習(xí)

    無監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識。
    的頭像 發(fā)表于 05-16 14:48 ?1052次閱讀
    使用MATLAB<b class='flag-5'>進(jìn)行</b>無監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>

    永磁同步電機(jī)電流環(huán)改進(jìn)內(nèi)模控制的研究

    取,因此控制效果難以達(dá)到最佳 。依據(jù)自由度原理,在保證內(nèi)模效果的基礎(chǔ)上,引入 2 個內(nèi)模電流調(diào) 節(jié)因子,對內(nèi)模控制器進(jìn)行改進(jìn) 。仿真
    發(fā)表于 03-26 14:25

    一種無刷直流電機(jī)霍耳信號與定子繞組關(guān)系自學(xué)習(xí)方法

    的關(guān)系。提出了一種無刷直流電機(jī)霍耳信號與定子繞組關(guān)系自學(xué)習(xí)方法,該方法通過不同的繞組通電組合將電機(jī)轉(zhuǎn)子依次轉(zhuǎn)到6個不同的位置并記錄對應(yīng)的霍耳信號,然后得出霍耳信號與定子繞組的對應(yīng)關(guān)系。所提出的方法快速
    發(fā)表于 03-25 15:15

    DeepSeek與Kimi揭示o1秘密,思維鏈學(xué)習(xí)方法顯成效

    據(jù)消息,OpenAI近日發(fā)布了一項(xiàng)重要研究報告。報告指出,DeepSeek和Kimi兩家機(jī)構(gòu)通過獨(dú)立研究,成功利用思維鏈學(xué)習(xí)方法,在數(shù)學(xué)解題與編程挑戰(zhàn)中顯著提升了模型的綜合表現(xiàn)。 Kimi的研究員
    的頭像 發(fā)表于 02-18 15:13 ?643次閱讀

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    用于開發(fā)生物學(xué)數(shù)據(jù)的機(jī)器學(xué)習(xí)方法。盡管深度學(xué)習(xí)(一般指神經(jīng)網(wǎng)絡(luò)算法)是一個強(qiáng)大的工具,目前也非常流行,但它的應(yīng)用領(lǐng)域仍然有限。與深度學(xué)習(xí)相比,傳統(tǒng)方法在給定問題上的開發(fā)和測試速度更快。
    的頭像 發(fā)表于 12-30 09:16 ?1667次閱讀
    傳統(tǒng)機(jī)器<b class='flag-5'>學(xué)習(xí)方法</b>和應(yīng)用指導(dǎo)

    瑞薩電子與吉利汽車聯(lián)合舉辦汽車主控芯片軟硬能力提升訓(xùn)練營

    近日,由瑞薩電子與吉利汽車研究院聯(lián)合舉辦的“汽車主控芯片軟硬能力提升訓(xùn)練營”順利落幕。
    的頭像 發(fā)表于 12-09 10:50 ?1002次閱讀

    什么是機(jī)器學(xué)習(xí)?通過機(jī)器學(xué)習(xí)方法能解決哪些問題?

    計算機(jī)系統(tǒng)自身的性能”。事實(shí)上,由于“經(jīng)驗(yàn)”在計算機(jī)系統(tǒng)中主要以數(shù)據(jù)的形式存在,因此機(jī)器學(xué)習(xí)需要設(shè)法對數(shù)據(jù)進(jìn)行分析學(xué)習(xí),這就使得它逐漸成為智能數(shù)據(jù)分析技術(shù)的創(chuàng)新源之一,
    的頭像 發(fā)表于 11-16 01:07 ?1394次閱讀
    什么是機(jī)器<b class='flag-5'>學(xué)習(xí)</b>?通過機(jī)器<b class='flag-5'>學(xué)習(xí)方法</b>能解決哪些問題?

    如何使用 PyTorch 進(jìn)行強(qiáng)化學(xué)習(xí)

    強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)是一種機(jī)器學(xué)習(xí)方法,它通過與環(huán)境的交互來學(xué)習(xí)如何做出決策,以最大化累積獎勵。PyTorch 是一個流行的開源機(jī)器學(xué)習(xí)庫,
    的頭像 發(fā)表于 11-05 17:34 ?1311次閱讀