Jinwoo Kim, Olga Zaghen, Ayhan Suleymanzade, Youngmin Ryou, Seunghoon Hong
개요
본 논문은 그래프 상의 랜덤 워크를 기계가 읽을 수 있는 기록으로 변환하고, 이 기록을 심층 신경망으로 처리하여 정점 또는 그래프 수준의 예측을 직접 수행하는 간단한 기계 학습 모델 클래스를 재검토합니다. 저자들은 이러한 확률적 기계를 랜덤 워크 신경망(RWNNs)이라고 부르며, 원칙적인 분석을 통해 동형 불변성을 유지하면서 그래프 함수의 확률적 보편 근사가 가능하도록 설계할 수 있음을 보입니다. 주요 발견 중 하나는 정점이 익명화되는 한 거의 모든 종류의 랜덤 워크 기록이 확률적 불변성을 보장한다는 것입니다. 이를 통해 예를 들어 랜덤 워크를 일반 텍스트로 기록하고 언어 모델을 사용하여 이러한 텍스트 기록을 읽어 그래프 작업을 해결할 수 있습니다. 또한 마르코프 체인 이론의 도구를 사용하여 메시지 전달 신경망과의 병렬성을 확립하고, 메시지 전달에서 과도한 평활화는 RWNN에서 구성상 완화되는 반면, 과도한 압축은 확률적 미달성으로 나타남을 보입니다. 실험적으로 다양한 문제에 대해 RWNN을 시연하여 이론적 분석을 검증하고, 3-WL 테스트가 실패하는 강하게 규칙적인 그래프를 분리하고 arXiv 인용 네트워크에서 전이 학습 분류를 수행하는 데 언어 모델을 사용하는 것을 보여줍니다. 코드는 https://github.com/jw9730/random-walk 에서 사용 가능합니다.