Sign In

GraphPrompter: Multi-stage Adaptive Prompt Optimization for Graph In-Context Learning

Created by
  • Haebom
Category
Empty

저자

Rui Lv, Zaixi Zhang, Kai Zhang, Qi Liu, Weibo Gao, Jiawei Liu, Jiaxia Yan, Linan Yue, Fangzhou Yao

개요

본 논문은 매개변수 업데이트 없이 사전 훈련된 그래프 모델을 새로운 다양한 다운스트림 그래프에 적용하는 그래프 인-컨텍스트 학습(Graph In-Context Learning)에 초점을 맞춥니다. 기존 방법들이 무작위로 하위 그래프나 에지를 프롬프트로 선택하여 노이즈가 많은 프롬프트와 낮은 모델 성능을 초래하는 문제점을 지적하며, 특히 테스트 그래프의 클래스 수가 훈련 그래프보다 훨씬 많을 때 인-컨텍스트 학습 능력이 크게 저하되는 문제를 해결하기 위해 다단계 적응형 프롬프트 최적화 방법인 GraphPrompter를 제안합니다. GraphPrompter는 그래프 프롬프트 생성, 선택, 사용의 전 과정을 최적화하여 인-컨텍스트 학습 능력을 향상시킵니다. 구체적으로, 프롬프트 생성기(Prompt Generator)는 재구성 레이어를 도입하여 가장 유익한 에지를 강조하고 관련 없는 노이즈를 줄이며, 프롬프트 선택기(Prompt Selector)는 k-최근접 이웃 알고리즘과 사전 훈련된 선택 레이어를 사용하여 적절한 샘플을 동적으로 선택하고 관련 없는 프롬프트의 영향을 최소화합니다. 마지막으로, 캐시 교체 전략을 사용하는 프롬프트 증강기(Prompt Augmenter)를 통해 새로운 데이터셋에서 사전 훈련된 모델의 일반화 능력을 향상시킵니다. 실험 결과, GraphPrompter는 그래프 모델의 인-컨텍스트 학습 능력을 효과적으로 향상시키며, 모든 설정에서 평균 8% 이상의 성능 향상을 보였습니다.

시사점, 한계점

시사점:
그래프 인-컨텍스트 학습의 성능을 향상시키는 효과적인 프롬프트 최적화 방법을 제시합니다.
프롬프트 생성, 선택, 사용의 전 과정을 최적화하여 더욱 정확하고 효율적인 학습을 가능하게 합니다.
사전 훈련된 모델의 일반화 능력을 향상시켜 다양한 다운스트림 그래프에 적용 가능성을 높입니다.
기존 방법들보다 평균 8% 이상의 성능 향상을 달성하여 그래프 인-컨텍스트 학습 분야에 중요한 기여를 합니다.
한계점:
제안된 방법의 계산 비용 및 시간 복잡도에 대한 자세한 분석이 부족합니다.
다양한 그래프 구조 및 데이터셋에 대한 일반화 성능 평가가 더 필요합니다.
특정 유형의 그래프에 대해서는 성능 향상이 제한적일 수 있습니다.
프롬프트 선택 및 증강 전략의 최적 파라미터 설정에 대한 추가 연구가 필요합니다.
👍