圖是一種數據結構,它對一組對象(節(jié)點)及其關系(邊)進行建模。近年來,由于圖結構的強大表現力,用機器學習方法分析圖的研究越來越受到重視。圖神經網絡(GNN)是一類基于深度學習的處理圖域信息的方法。由于其較好的性能和可解釋性,GNN最近已成為一種廣泛應用的圖分析方法。
GNN的第一個動機源于卷積神經網絡(CNN)。CNN的廣泛應用帶來了機器學習領域的突破并開啟了深度學習的新時代。然而CNN只能在規(guī)則的Euclidean數據上運行,如圖像(2維網格)和文本(1維序列)。如何將CNN應用于圖結構這一非歐幾里德空間,成為GNN模型重點解決的問題。
GNN的另一個動機來自圖嵌入(GraphEmbedding),它學習圖中節(jié)點、邊或子圖的低維向量空間表示。DeepWalk、LINE、SDNE等方法在網絡表示學習領域取得了很大的成功。然而,這些方法在計算上較為復雜并且在大規(guī)模上的圖上并不是最優(yōu)的,GNN旨在解決這些問題。
?發(fā)展歷史
圖神經網絡的概念首先由Gori等人于2005年提出,并由Scarselli等人進一步闡明。這些早期的研究以迭代的方式通過循環(huán)神經架構傳播鄰近信息來學習目標節(jié)點的表示,直到達到穩(wěn)定的固定點。該過程所需計算量龐大,而近來也有許多研究致力于解決這個難題。一般情況下,圖神經網絡代表的是所有用于圖數據的深度學習方法。
受到卷積網絡在計算機視覺領域所獲巨大成功的激勵,近來出現了很多為圖數據重新定義卷積概念的方法。這些方法屬于圖卷積網絡(GCN)的范疇。Bruna等人于2013年提出了關于圖卷積網絡的第一項重要研究,他們基于譜圖論(spectralgraphtheory)開發(fā)了一種圖卷積的變體。自此,基于譜的圖卷積網絡不斷改進、拓展、進階。由于譜方法通常同時處理整個圖,并且難以并行或擴展到大圖上,基于空間的圖卷積網絡開始快速發(fā)展。這些方法通過聚集近鄰節(jié)點的信息,直接在圖結構上執(zhí)行卷積。結合采樣策略,計算可以在一個批量的節(jié)點而不是整個圖中執(zhí)行,這種做法有望提高效率。除了圖卷積網絡,近幾年還開發(fā)出了很多替代的圖神經網絡。這些方法包括圖注意力網絡(GAT)、圖自編碼器、圖生成網絡以及圖時空網絡。
Battaglia等人將圖網絡定位為從關系數據中學習的構建塊,并在統(tǒng)一的框架下回顧了部分圖神經網絡。然而,他們整體的框架是高度抽象的,失去了每種方法在原論文中的見解。Lee等人對圖注意力模型(一種圖神經網絡)進行了部分調查。最近,Zhang等人提出了一項關于圖深度學習的最新調查,卻忽略了對圖生成網絡和圖時空網絡的研究。總之,現有的研究沒有一個對圖神經網絡進行全面的回顧,只覆蓋了部分圖卷積神經網絡且檢查的研究有限,因此遺漏了圖神經網絡替代方法的最新進展,如圖生成網絡和圖時空網絡。
?未來發(fā)展方向
加深網絡。深度學習的成功在于深度神經架構。例如在圖像分類中,模型ResNet具有152層。但在圖網絡中,實證研究表明,隨著網絡層數增加,模型性能急劇下降。這是由于圖卷積的影響,因為它本質上推動相鄰節(jié)點的表示更加接近彼此,所以理論上,通過無限次卷積,所有節(jié)點的表示將收斂到一個點。
感受野。節(jié)點的感受野是指一組節(jié)點,包括中心節(jié)點和其近鄰節(jié)點。節(jié)點的近鄰(節(jié)點)數量遵循冪律分布。有些節(jié)點可能只有一個近鄰,而有些節(jié)點卻有數千個近鄰。盡管采用了采樣策略,但如何選擇節(jié)點的代表性感受野仍然有待探索。
可擴展性。大部分圖神經網絡并不能很好地擴展到大型圖上。主要原因是當堆疊一個圖卷積的多層時,節(jié)點的最終狀態(tài)涉及其大量近鄰節(jié)點的隱藏狀態(tài),導致反向傳播變得非常復雜。雖然有些方法試圖通過快速采樣和子圖訓練來提升模型效率,但它們仍無法擴展到大型圖的深度架構上。
動態(tài)性和異質性。大多數當前的圖神經網絡都處理靜態(tài)同質圖。一方面,假設圖架構是固定的。另一方面,假設圖的節(jié)點和邊來自同一個來源。然而,這兩個假設在很多情況下是不現實的。在社交網絡中,一個新人可能會隨時加入,而之前就存在的人也可能退出該社交網絡。在推薦系統(tǒng)中,產品可能具有不同的類型,而其輸出形式也可能不同,也許是文本,也許是圖像。因此,應當開發(fā)新方法來處理動態(tài)和異質圖結構。