Study/ML & DL

Graph Contrastive Learning (GCL) - (1) Introduction

Seung-won Seo 2024. 6. 2. 16:45

Introduction to Graph Contrastive Learning (GCL) 

Graph Contrastive Learning (GCL) 이란 , Self-supervised graph representation learning 의 기법중 하나입니다. 일반적인 contrastive learning (대조학습) 과 그 목표와 방법이 거의 동일합니다.

그래프 혹은 노드 level 에서 , 유사한 graph (positive pair) 를 가까이 representation (pull close) 하고 , 그렇지 않은 graph (negative pair) 를 멀리 representation (push away) 하는 학습방법 입니다.

 

일반적으로 GCL 에서는 동일한 그래프/노드의 view 를 positive pairs 로 간주하고, 다른 그래프/노드에서 임의로 선택한 view 를 negative pairs 로 간주합니다. 이때 양의 쌍 사이의 표현 유사성은 음의 쌍보다 클 수밖에 없습니다. 태스크에 따라서 대조하는 관점에 따라서 분류하면 대조 방법은 크게 두 그룹으로 나눌 수 있습니다.

이러한 GCL 에서는 크게 두가지 방법이 있습니다. 첫번째는 Substructure-Based Methods , 두번째는 Augmentation-Based Methods 입니다. 

본 포스팅에서는 두가지 방법에 대해 각각 간략하게 소개하고 , 이후 각 method 의 대표적인 연구들을 알아보겠습니다.

 

1. Substructure-based Methods

 

InfoGraph [1] 는 graph-level representation 을 위해 원래 그래프 (original graph) 의 하위구조인 nodes, edges , triangles 등을 대조학습을 위한 기준으로 사용합니다.

 

DGI[2] 와 GMI[3]는 그래프와 노드 간의 contrastive view 를 구축합니다.

MVGRL[4]은 subgraph 를 샘플링하여 contrastive view 를 생성하고 노드 및 그래프 level representation 을 모두 학습합니다. GCC[5]는 서로 다른 subgraph 를 contrastive view 로 취급하고 대규모 graph pre-training 에 InfoNCE loss[6]을 도입합니다.

 

 

2. Augmentation-Based Methods

 

Augmentation-based GCL

 

 

 

Augmentation 기반의 GCL 기법들은 Computer Vision 에서 SimCLR 나 NLP 의 SimCSE 와 유사한 방식으로 , 일반적으로 입력 그래프와 특징에 다양한 작은 변화를 적용하여 contrastive view 를 생성합니다. 즉 , 유사한 data augmentation 을 이용해 유사한 graph 를 만들어 positive pair 로 이용하여 representation learning 이 잘되게 유도합니다.

 

 

GRACE [7] 와 GraphCL [8]은 input 그래프 (e.g., node and edge dropping)를 무작위로 변화를 주어 contrastive view 를 생성합니다.

GCA [9]는 서로 다른 그래프의 속성(e.g., node degree , eigenvector , PageRank 등)을 기반으로 적응적으로 contrastive view 를 구축합니다.여기서 중요도 점수(e.g., node degree 등)가 작은 node 또는 edge 는 contrastive view 에서 dropped 될 가능성이 높습니다.

JOAO[10] 와 AD-GCL[11]은 자동으로 graph augmentation 을 선택하고 적대적인 방식으로 contrastive view 를 생성합니다. DSGC[12]는 증강 데이터를 대조하는 대신 hyperbolic 이나 Euclidean 이중 공간에서 contrastive view 를 수행합니다.

 

GASSL[13]은 input features 와 hidden layers  를 직접 perturbation 하여 contrastive view 를 생성합니다.

SimGRACE[14]는 contrastive view 를 생성하기 위해 모델 parameter 에 가우시안 노이즈를 perturbation 으로 추가합니다. 
MA-GCL[15]은 GNN 인코더의 neural architecture (즉, 그래프 필터, 선형 투영 및 비선형 함수의 무작위 순열)를 contrastive view 로 random permutation 시키는 새로운 augmentation strategy 을 제안합니다.

HeCo[16]는 heterogeneous graph 에서 network schema 및 meta-path views 를 두 개의 specific views로 사용합니다.

 

 

Reference

[1] InfoGraph

Infograph: Unsupervised and semi-supervised graph-level representation learning via mutual information maximization. In Proceedings of ICLR, 2019.

[2] DGI

Deep graph infomax. In Proceedings of ICLR, 2018.

[3] GMI

Graph representation learning via graphical mutual information maximization. In Proceedings of WWW, 2020.

[4] MVGRL

Contrastive multi-view representation learning on graphs. In Proceedings of ICML, 2020.

[5] GCC

Gcc: Graph contrastive coding for graph neural network pre-training. In Proceedings of SIGKDD, 2020.

[6] InfoNCE Loss

Representation learning with contrastive predictive coding. arXiv preprint arXiv:1807.03748, 2018.

[7] GRACE 

Deep graph contrastive representation learning. arXiv preprint arXiv:2006.04131, 2020.

[8] GraphCL

Graph contrastive learning with augmentations. In Proceedings of NeurIPS, 2020.

[9] GCA

Graph contrastive learning with adaptive augmentation. In Proceedings of WWW, 2021.

[10] JOAO

Graph contrastive learning automated. In Proceedings of ICML, 2021.

[11] AD-GCL

Adversarial graph augmentation to improve graph contrastive learning. Proceedings of NeurIPS, 2021.

[12] DSGC

Dual space graph contrastive learning. Proceedings of WWW, 2022.

[13] GASSL

Graph adversarial self-supervised learning. Proceedings of NeurIPS, 2021.

[14] SimGRACE

Simgrace: A simple framework for graph contrastive learning without data augmentation. In Proceedings of WWW, 2022.

[15] MA-GCL

Ma-gcl: Model augmentation tricks for graph contrastive learning. In Proceedings of AAAI, 2023.

[16] HeCo

Self-supervised heterogeneous graph neural network with co-contrastive learning. In Proceedings of SIGKDD, 2021.

 

* 본 포스팅은 Representation Learning for Natural Language Processing - Zhiyuan Liu · Yankai Lin Maosong Sun Editors (Second Edition , Springer) 이라는 교재를 기반으로 작성하였습니다.