18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌正式發(fā)布TensorFlow 圖神經(jīng)網(wǎng)絡

谷歌開發(fā)者 ? 來源:谷歌開發(fā)者 ? 作者:谷歌開發(fā)者 ? 2022-01-05 13:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

發(fā)布人:Sibon Li、Jan Pfeifer、Bryan Perozzi 和 Douglas Yarrington

日前,我們很高興發(fā)布了 TensorFlow神經(jīng)網(wǎng)絡 (Graph Neural Networks, GNNs),此庫可以幫助開發(fā)者利用 TensorFlow 輕松處理圖結(jié)構(gòu)化數(shù)據(jù)。我們已在 Google 的多個生產(chǎn)環(huán)境中使用了該庫的早期版本(例如,垃圾郵件和異常檢測、數(shù)據(jù)流量估計、YouTube 內(nèi)容標簽),并作為可擴容的圖挖掘管道的一個組成部分。特別是,鑒于 Google 的數(shù)據(jù)類型繁多,我們的庫在設計時就考慮到了異構(gòu)圖。發(fā)布此庫的初衷是為了鼓勵與業(yè)界研究人員的合作。

TensorFlow 圖神經(jīng)網(wǎng)絡

https://github.com/tensorflow/gnn

為何使用 GNNs?

在現(xiàn)實世界和我們的工程系統(tǒng)中,“圖”無處不在。一組物體、地點或人以及它們之間的聯(lián)系通常都可以用圖來表述。通常情況下,我們在機器學習問題中看到的數(shù)據(jù)是結(jié)構(gòu)化或關系化的,因此也可以用圖來表述。雖然關于 GNNs 的基礎研究可能只有幾十年的歷史,但當代 GNNs 最近取得的功能進展已經(jīng)幫助推動了多個領域的進步,其中包括數(shù)據(jù)流量預測、謠言和假新聞檢測、疾病傳播建模、物理學模擬和理解分子有氣味的原因等。

數(shù)據(jù)流量預測

https://deepmind.com/blog/article/traffic-prediction-with-advanced-graph-neural-networks

謠言和假新聞檢測

https://arxiv.org/abs/2108.03548

疾病傳播建模

https://arxiv.org/abs/2007.03113

物理學模擬

http://proceedings.mlr.press/v80/sanchez-gonzalez18a/sanchez-gonzalez18a.pdf

理解分子有氣味的原因

https://arxiv.org/abs/1910.10685

圖可以對多種不同類型數(shù)據(jù)之間的關系進行建模,

包括網(wǎng)頁(左)、社交關系(中)或分子(右)等

圖代表了一組實體(節(jié)點或頂點)之間的關系(邊)。我們可以通過描述每個節(jié)點、邊或整個圖的特征,從而將信息存儲在圖的每一塊中。此外,我們還可以賦予邊方向性,來描述信息或數(shù)據(jù)流,等等。

若這些圖有多個特征,則可以用 GNNs 來解決這類問題。通過圖層級的研究,我們嘗試預測整個圖的特征。我們可以識別某些“形狀”的存在,如圖中的圓圈,可能代表亞分子,也可能代表密切的社會關系。GNNs 可以用于節(jié)點級的任務,對圖的節(jié)點進行分類,并預測圖中的分區(qū)和相似性,類似于圖像分類或分割。最后,我們可以在邊層級上使用 GNNs 來發(fā)現(xiàn)實體之間的聯(lián)系,或許可以使用 GNNs 來“修剪”邊,以確定場景中對象的狀態(tài)。

結(jié)構(gòu)

TF-GNN 提供了基本模塊,以便在 TensorFlow 中實現(xiàn) GNN 模型。除了建模 API,我們的庫還針對處理圖數(shù)據(jù)的困難任務提供了大量的工具:基于 Tensor 的圖數(shù)據(jù)結(jié)構(gòu)、數(shù)據(jù)處理管道,以及一些供用戶快速上手的示例模型。

組成工作流的各種 TF-GNN 組件

TF-GNN庫的初始版本包含一些實用程序和功能,初學者和有經(jīng)驗的用戶都能使用,其中包括:

TF-GNN 庫

https://github.com/tensorflow/gnn

高階 Keras 式 API,用于創(chuàng)建 GNN 模型,可以輕松地與其他類型的模型組合。GNNs 經(jīng)常與排名、深度檢索(雙編碼器)結(jié)合使用或與其他類型的模型(圖像、文本等)混合使用。

用于異構(gòu)圖的 GNN API。我們在 Google 和現(xiàn)實世界中處理的許多圖問題都包含不同類型的節(jié)點和邊。因此,我們選擇提供一種簡單的方法來對此建模。

定義明確的架構(gòu),用于聲明圖的拓撲,以及驗證架構(gòu)的工具。此架構(gòu)描述了其訓練數(shù)據(jù)的形狀,并用于指導其他工具。

GraphTensor 復合張量類型,它持有圖數(shù)據(jù),可以分批處理,還有圖操作例程可用。

關于 GraphTensor 結(jié)構(gòu)的操作庫:

對節(jié)點和邊的各種有效的廣播和池化運算,以及相關工具。

標準并入的卷積庫,ML 工程師/研究人員可以輕松地對其進行擴展。

高階 API,幫助產(chǎn)品工程師快速構(gòu)建 GNN 模型,而不必擔心其細節(jié)問題。

磁盤上的圖形訓練數(shù)據(jù)的編碼,以及用來將該數(shù)據(jù)解析為數(shù)據(jù)結(jié)構(gòu)的庫,您的模型可以從該庫中提取各種特征。

示例用法

在下面的例子中,我們使用 TF-GNN Keras API 構(gòu)建一個模型,根據(jù)用戶觀看的內(nèi)容和喜歡的類型向其推薦電影。

我們使用 ConvGNNBuilder 方法來指定邊類型和節(jié)點配置,即對邊使用 WeightedSumConvolution(定義如下)。每次通過 GNN 時,我們將通過 Dense 互連層來更新節(jié)點值:

import tensorflow as tf
    import tensorflow_gnn as tfgnn

    # Model hyper-parameters:
    h_dims = {'user': 256, 'movie': 64, 'genre': 128}

    # Model builder initialization:
    gnn = tfgnn.keras.ConvGNNBuilder(
      lambda edge_set_name: WeightedSumConvolution(),
      lambda node_set_name: tfgnn.keras.layers.NextStateFromConcat(
         tf.keras.layers.Dense(h_dims[node_set_name]))
    )

    # Two rounds of message passing to target node sets:
    model = tf.keras.models.Sequential([
        gnn.Convolve({'genre'}),  # sends messages from movie to genre
        gnn.Convolve({'user'}),  # sends messages from movie and genre to users
        tfgnn.keras.layers.Readout(node_set_name="user"),
        tf.keras.layers.Dense(1)
    ])

以上代碼很好用,但有時我們可能想要為 GNNs 使用更強大的自定義模型架構(gòu)。例如,在之前的用例中,我們可能想指定某些電影或類型,讓它們在我們進行推薦時擁有更多權(quán)重。在下列片段中,我們用自定義圖卷積定義了一個更高級的 GNN,例子中使用的是加權(quán)邊。我們定義了 WeightedSumConvolution 類來匯集邊值,讓其作為所有邊的權(quán)重之和:

class WeightedSumConvolution(tf.keras.layers.Layer):
  """Weighted sum of source nodes states."""

  def call(self, graph: tfgnn.GraphTensor,
           edge_set_name: tfgnn.EdgeSetName) -> tfgnn.Field:
    messages = tfgnn.broadcast_node_to_edges(
        graph,
        edge_set_name,
        tfgnn.SOURCE,
        feature_name=tfgnn.DEFAULT_STATE_NAME)
    weights = graph.edge_sets[edge_set_name]['weight']
    weighted_messages = tf.expand_dims(weights, -1) * messages
    pooled_messages = tfgnn.pool_edges_to_node(
        graph,
        edge_set_name,
        tfgnn.TARGET,
        reduce_type='sum',
        feature_value=weighted_messages)
    return pooled_messages

請注意,盡管卷積的編寫只考慮了源節(jié)點和目標節(jié)點,但 TF-GNN 保障了其適用性,讓其能夠在異構(gòu)圖(有各種類型的節(jié)點和邊)上無縫工作。

更多信息

您可以查看 TF-GNNGitHub repo,以獲得更多信息。

GitHub repo

https://github.com/tensorflow/gnn

歡迎加入 TensorFlow 論壇,隨時關注 TensorFlow 博客、Twitter 或 YouTube,獲悉最新消息。

TensorFlow 論壇

https://discuss.tensorflow.google.cn/

博客

https://blog.tensorflow.google.cn/

Twitter

http://twitter.com/tensorflow

YouTube

http://youtube.com/tensorflow

您還可以通過 Community Spotlight 計劃向我們提交作品,分享您的構(gòu)建成果。如需提供反饋,您可以在 GitHub 上提交問題。我們歡迎您的貢獻和參與,謝謝!

Community Spotlight 計劃

http://goo.gle/TFCS

GitHub

https://github.com/tensorflow/gnn/issues

致謝

本文所介紹的研究來自以下各位的合作成果:來自 Google 的 Oleksandr Ferludin?、Martin Blais、Jan Pfeifer?、Arno Eigenwillig、Dustin Zelle、Bryan Perozzi 和 Da-Cheng Juan,以及來自 DeepMind 的 Sibon Li、Alvaro Sanchez-Gonzalez、Peter Battaglia、Kevin Villela、Jennifer She 和 David Wong。

原文標題:推出 TensorFlow 圖神經(jīng)網(wǎng)絡 (GNNs)

文章出處:【微信公眾號:谷歌開發(fā)者】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

審核編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6241

    瀏覽量

    110011
  • 神經(jīng)網(wǎng)絡

    關注

    42

    文章

    4820

    瀏覽量

    106346
  • 開發(fā)者
    +關注

    關注

    1

    文章

    690

    瀏覽量

    17879

原文標題:推出 TensorFlow 圖神經(jīng)網(wǎng)絡 (GNNs)

文章出處:【微信號:Google_Developers,微信公眾號:谷歌開發(fā)者】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    TF之CNN:Tensorflow構(gòu)建卷積神經(jīng)網(wǎng)絡CNN的嘻嘻哈哈事之詳細攻略

    TF之CNN:Tensorflow構(gòu)建卷積神經(jīng)網(wǎng)絡CNN的嘻嘻哈哈事之詳細攻略
    發(fā)表于 12-19 17:03

    【PYNQ-Z2試用體驗】神經(jīng)網(wǎng)絡基礎知識

    超過閾值,輸出就一躍而起。但我們一般用S函數(shù)作為激活函數(shù)。如下圖:2 該函數(shù)相比階越函數(shù)更加接近現(xiàn)實。神經(jīng)網(wǎng)絡原理如圖所示是一個具有兩層的神經(jīng)網(wǎng)絡,每層有兩個神經(jīng)元。
    發(fā)表于 03-03 22:10

    發(fā)布MCU上跑的輕量神經(jīng)網(wǎng)絡包 NNoM, 讓MCU也神經(jīng)一把

    神經(jīng)網(wǎng)絡包。AIoT那么火,為何大家卻止步于科普文?因為現(xiàn)成的機器學習框架都太復雜太難用。NNoM從一開始就被設計成提供給嵌入式大佬們的一個簡單易用的神經(jīng)網(wǎng)絡框架。你不需要會TensorFlow
    發(fā)表于 05-01 19:03

    卷積神經(jīng)網(wǎng)絡如何使用

    卷積神經(jīng)網(wǎng)絡(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡在工程上經(jīng)歷了曲折的歷史,您為什么還會在意它呢? 對于這些非常中肯的問題,我們似乎可以給出相對簡明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】ART神經(jīng)網(wǎng)絡與SOM神經(jīng)網(wǎng)絡

    今天學習了兩個神經(jīng)網(wǎng)絡,分別是自適應諧振(ART)神經(jīng)網(wǎng)絡與自組織映射(SOM)神經(jīng)網(wǎng)絡。整體感覺不是很難,只不過一些最基礎的概念容易理解不清。首先ART神經(jīng)網(wǎng)絡是競爭學習的一個代表,
    發(fā)表于 07-21 04:30

    TensorFlow是什么

    更長。TensorFlow 使這一切變得更加簡單快捷,從而縮短了想法到部署之間的實現(xiàn)時間。在本教程中,你將學習如何利用 TensorFlow 的功能來實現(xiàn)深度神經(jīng)網(wǎng)絡。TensorFlow
    發(fā)表于 07-22 10:14

    【AI學習】第3篇--人工神經(jīng)網(wǎng)絡

    `本篇主要介紹:人工神經(jīng)網(wǎng)絡的起源、簡單神經(jīng)網(wǎng)絡模型、更多神經(jīng)網(wǎng)絡模型、機器學習的步驟:訓練與預測、訓練的兩階段:正向推演與反向傳播、以TensorFlow + Excel表達訓練流程
    發(fā)表于 11-05 17:48

    如何移植一個CNN神經(jīng)網(wǎng)絡到FPGA中?

    二次開發(fā)。移植一個神經(jīng)網(wǎng)絡到Lattice FPGA上可以分為三步:第一步:使用Tensorflow, Caffe, Keras訓練自己的網(wǎng)絡。(這里Lattice官網(wǎng)的參考設計提供了訓練網(wǎng)絡
    發(fā)表于 11-26 07:46

    如何構(gòu)建神經(jīng)網(wǎng)絡?

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預測的計算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡神經(jīng)網(wǎng)絡包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預測
    發(fā)表于 07-12 08:02

    如何使用TensorFlow神經(jīng)網(wǎng)絡模型部署到移動或嵌入式設備上

    有很多方法可以將經(jīng)過訓練的神經(jīng)網(wǎng)絡模型部署到移動或嵌入式設備上。不同的框架在各種平臺上支持Arm,包括TensorFlow、PyTorch、Caffe2、MxNet和CNTK,如Android
    發(fā)表于 08-02 06:43

    TensorFlow寫個簡單的神經(jīng)網(wǎng)絡

    這次就用TensorFlow寫個神經(jīng)網(wǎng)絡,這個神經(jīng)網(wǎng)絡寫的很簡單,就三種層,輸入層--隱藏層----輸出層;
    的頭像 發(fā)表于 03-23 15:37 ?5448次閱讀
    用<b class='flag-5'>TensorFlow</b>寫個簡單的<b class='flag-5'>神經(jīng)網(wǎng)絡</b>

    如何使用Numpy搭建神經(jīng)網(wǎng)絡

    很多同學入門機器學習之后,直接用TensorFlow調(diào)包實現(xiàn)神經(jīng)網(wǎng)絡,對于神經(jīng)網(wǎng)絡內(nèi)在機理知之甚少。
    的頭像 發(fā)表于 05-18 11:02 ?3966次閱讀
    如何使用Numpy搭建<b class='flag-5'>神經(jīng)網(wǎng)絡</b>

    推出 TensorFlow 神經(jīng)網(wǎng)絡 (GNNs)

    發(fā)布人:Sibon Li、Jan Pfeifer、Bryan Perozzi 和 Douglas Yarrington 日前,我們很高興發(fā)布TensorFlow
    的頭像 發(fā)表于 01-05 13:44 ?1654次閱讀

    卷積神經(jīng)網(wǎng)絡的應用分析

    【源碼】卷積神經(jīng)網(wǎng)絡Tensorflow文本分類中的應用
    發(fā)表于 11-14 11:15 ?897次閱讀

    使用TensorFlow進行神經(jīng)網(wǎng)絡模型更新

    使用TensorFlow進行神經(jīng)網(wǎng)絡模型的更新是一個涉及多個步驟的過程,包括模型定義、訓練、評估以及根據(jù)新數(shù)據(jù)或需求進行模型微調(diào)(Fine-tuning)或重新訓練。下面我將詳細闡述這個過程,并附上相應的TensorFlow代碼
    的頭像 發(fā)表于 07-12 11:51 ?1186次閱讀