SMI: An Information-Theoretic Metric for Predicting Model Knowledge Solely from Pre-Training Signals
Created by
Haebom
저자
Changhao Jiang, Ming Zhang, Junjie Ye, Xiaoran Fan, Yifei Cao, Jiajun Sun, Zhiheng Xi, Shihan Dou, Yi Dong, Yujiong Shen, Jingqi Tong, Zhen Wang, Tao Liang, Zhihui Fei, Mingyang Wan, Guojun Ma, Qi Zhang, Tao Gui, Xuanjing Huang
개요
본 논문은 대규모 언어 모델의 사전 훈련 데이터 특성을 이용하여 폐쇄형 질의응답(QA) 성능을 예측하는 새로운 지표인 크기 의존적 상호 정보(SMI)를 제안합니다. 기존의 빈도 기반 지표의 한계를 극복하기 위해 21개의 공개 모델과 3개의 맞춤형 모델의 사전 훈련 데이터에 대한 대규모 검색 및 의미 분석을 수행하고, 다양한 질문 변형을 포함하는 다중 템플릿 QA 평가 프레임워크를 개발했습니다. SMI는 사전 훈련 데이터 특성, 모델 크기, QA 정확도 간의 선형 상관관계를 나타내며, 추가적인 훈련 없이도 10억 개 이상의 파라미터를 가진 모델에서 $R^2$ > 0.75의 성능을 달성했습니다. 이론적 분석을 통해 모델 크기 확장 및 데이터 최적화의 한계 효용을 밝히고, 특정 QA 작업 정확도의 상한선이 약 80%임을 제시합니다. 본 연구의 코드는 깃허브에서 공개됩니다.
시사점, 한계점
•
시사점:
◦
사전 훈련 데이터 특성만으로 하류 작업 성능을 효과적으로 예측하는 새로운 지표(SMI) 제시.