본문 바로가기

Data-science/deep learning

[딥러닝] Graph2Vec 4가지 특징

반응형

1. Unsupervised representation learning:

- graph2vec learns graph embeddings in a completely unsupervised manner i.e., class labels of graphs are not required for learning their embeddings. This allows us to readily use graph2vec embeddings in a plethora of applications where labeled data is difficult to obtain.

- 비지도 표현 학습. graph2vec은 완전히 비지도 방식으로 그래프 임베딩을 배운다. 즉, 그래프 임베딩에 해당하는 클래스 라벨이 요구되지 않는다. 라벨 데이터를 얻기 어려운 대부분의 과제에도 graph2vec은 쉽게 쓰일 수 있다.

2. Task-agnostic embeddings:

Since graph2vec does not leverage on any task-specific information (e.g., class labels) for its representation learning process, the embeddings it provides are generic. This allows us to use these embeddings across all analytics tasks involving whole graphs. In fact, graph2vec embeddings could be used to seed supervised representation learning approaches such as [9].

- 과제에 무관한 임베딩. graph2vec은 표현을 학습하는 과정에 있어서 특정한 과제에 치우치지 않기 때문에 임베딩 결과가 보다 일반적이다. 이런 특징으로 말미암아, graph2vec은 그래프와 관련된 모든 분석 테스크에 이 임베딩을 활용할 수 있다. 

3. Data-driven embeddings:

Unlike graph kernels, graph2vec learns graph embeddings from a large corpus of graph data. This enables graph2vec to circumvent the aforementioned disadvantages of handcrafted feature based embedding approaches.

-  데이터에 기반한 임베딩. 그래프 커널 방법들과 달리, graph2vec은 많은 그래프 데이터 뭉치로 부터 임베딩을 학습한다. 이게 수작업 특징 기반의 기존 방식들의 단점을 우회하게 만든다.

4. Captures structural equivalence:

Unlike approaches such as sub2vec [5] which sample linear substructures (e.g., fixed length random walks) in a graph and learns

Considering such non-linear substructures are known to preserve structural equivalence1 and hence this ensures graph2vec’s representation learning process yields similar embeddings for structurally similar graphs.

- 구조적 동질성을 포착한다. 비선형 구조를 고려하는 것은 구조적 동질성을 보존한다는 것이라고 알려져있다. 그러므로 graph2vec의 표현 학습으 과정은 구조적으로 유사한 그래프에대해 윳한 임베딩 결과를 산출한다.

반응형