# Mochi: Aligning Pre-training and Inference for Efficient Graph Foundation Models via Meta-Learning

### 저자

Joao Mattos, Arlei Silva

### 💡 개요

본 연구는 메타 학습 기반의 훈련 프레임워크를 채택한 그래프 파운데이션 모델인 Mochi를 제안합니다. 기존 모델들이 연결 예측과 같은 재구성 기반의 목표로 사전 훈련한 후 별도의 통합 단계를 거치는 것과 달리, Mochi는 다운스트림 평가와 유사한 소수샷 에피소드에서 사전 훈련하여 훈련 목표와 추론을 직접적으로 일치시킵니다. 이러한 접근 방식을 통해 Mochi는 기존 그래프 파운데이션 모델 대비 경쟁력 있거나 우수한 성능을 달성하면서도 훈련 시간을 획기적으로 단축합니다.

### 🔑 시사점 및 한계

- 사전 훈련과 추론 간의 직접적인 정렬을 통해 그래프 파운데이션 모델의 성능을 향상시키고 훈련 효율성을 높일 수 있습니다.

- 메타 학습을 활용하여 다양한 다운스트림 그래프 태스크에 대한 일반화 능력을 강화할 수 있습니다.

- 제안된 방법론의 실제 산업 적용 시, 다양한 종류와 규모의 그래프 데이터셋에 대한 일반화 성능 및 확장성에 대한 추가적인 검증이 필요할 수 있습니다.

---

[PDF 보기](https://arxiv.org/pdf/2604.22031)

For the site tree, see the [root Markdown](https://slashpage.com/haebom.md).
