Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

REACT: Representation Extraction And Controllable Tuning to Overcome Overfitting in LLM Knowledge Editing

Created by
  • Haebom

저자

Haitian Zhong, Yuhuan Liu, Ziyang Xu, Guofan Liu, Qiang Liu, Shu Wu, Zhe Zhao, Liang Wang, Tieniu Tan

개요

본 논문은 대규모 언어 모델 편집에서 발생하는 과적합 문제를 해결하기 위해 REACT(Representation Extraction And Controllable Tuning) 프레임워크를 제안한다. REACT는 두 단계로 구성된다. 첫 번째 단계에서는 맞춤 자극을 사용하여 잠재적 사실 표현을 추출하고, PCA와 학습 가능한 선형 변환을 통해 각 인스턴스에 대한 방향성 "믿음 변화" 벡터를 계산한다. 두 번째 단계에서는 미리 훈련된 분류기를 사용하여 문맥적으로 필요한 경우에만 편집을 허용하고, 얻어진 벡터를 이용하여 은닉 상태에 제어 가능한 섭동을 적용한다. EVOKE, COUNTERFACT, MQuAKE 벤치마크 실험 결과, REACT는 거의 모든 평가 지표에서 과적합을 크게 줄이고 다양한 편집 시나리오에서 균형 잡힌 기본 편집 성능(신뢰성, 지역성, 일반성)을 유지함을 보여준다.

시사점, 한계점

시사점:
대규모 언어 모델의 과적합 문제를 효과적으로 해결하는 새로운 프레임워크 REACT 제시.
PCA와 제어 가능한 섭동을 이용하여 정확하고 제어 가능한 지식 편집 가능.
EVOKE, COUNTERFACT, MQuAKE 벤치마크에서 우수한 성능 검증.
다양한 편집 시나리오에서 균형 잡힌 기본 편집 성능 유지.
한계점:
제시된 프레임워크의 일반성 및 확장성에 대한 추가 연구 필요.
특정 벤치마크에 대한 성능 검증이 주로 이루어져 다른 데이터셋이나 모델에 대한 일반화 성능 검증 필요.
미리 훈련된 분류기의 성능에 대한 의존성이 존재할 수 있음.
👍