GLA 論文解讀《Label-invariant Augmentation for Semi-Supervised Graph Classification》( 二 )


3.2 Semi-supervised graph classification results

GLA 論文解讀《Label-invariant Augmentation for Semi-Supervised Graph Classification》

文章插圖
3.3 Algorithmic Performance
GLA 論文解讀《Label-invariant Augmentation for Semi-Supervised Graph Classification》

文章插圖
3.4 In-depth ExplorationNegative Pairs現有的圖對比學習方法將來自不同源樣本的增廣圖視為負對,并對這些負對采用實例級判別 。由于這些方法分離了 pre-train 階段和 fine-tuning 階段,因此負對包含了來自不同源樣本的增強樣本,但在下游任務中具有相同的類別 。
Figure 4(a) 顯示了我們在四個數據集上有負對和沒有負對的 GLA 的性能 ??梢钥吹?,與沒有負對的默認設置相比,有負對的性能顯著下降,而負對在所有四個數據集上都表現一致 。與現有的圖對比方法不同,GLA 集成了預訓練階段和微調階段,其中以自監督的方式設計的負對不利于下游任務 。這一發現也與最近的[10,9]在視覺對比學習領域的研究結果相一致 。
 
GLA 論文解讀《Label-invariant Augmentation for Semi-Supervised Graph Classification》

文章插圖
4 Conclusion本文研究了圖的對比學習問題 。從現有的方法和訓練前的方法不同,我們提出了一種新的圖標簽不變增強(GLA)算法,該算法集成了訓練前和微調階段,通過擾動在表示空間中進行標簽不變增強 。具體來說 , GLA首先檢查增廣表示是否服從標簽不變屬性,并從合格的樣本中選擇最困難的樣本 。通過這種方法,GLA在不生成任何原始圖的情況下實現了對比增強,也增加了模型的泛化 。在8個基準圖數據集上的半監督設置下的廣泛實驗證明了我們的GLA的有效性 。此外,我們還提供了額外的實驗來驗證我們的動機,并深入探討了GLA在負對、增強空間和策略效應中的影響因素 。
【GLA 論文解讀《Label-invariant Augmentation for Semi-Supervised Graph Classification》】

推薦閱讀