Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Fine-tuning can Help Detect Pretraining Data from Large Language Models

Created by
  • Haebom
Category
Empty

저자

Hengxiang Zhang, Songxin Zhang, Bingyi Jing, Hongxin Wei

개요

본 논문은 대규모 언어 모델(LLM)의 사전 학습 데이터 감지를 위한 새로운 방법인 Fine-tuned Score Deviation(FSD)을 제안합니다. 기존의 Perplexity나 Min-k%와 같은 점수 함수 기반 방법들은 다양하고 복잡한 사전 학습 데이터로 인해 성능이 저조하지만, 본 논문에서는 LLM 공개 이후 쉽게 수집 가능한 미지의 데이터를 활용하는 방식을 제시합니다. 미지의 데이터로 미세 조정 후 LLM의 perplexity 변화가 사전 학습 데이터 포함 여부에 따라 다르게 나타나는 점에 착안하여, 미세 조정 후 점수의 편차를 측정하는 FSD 방법을 제안합니다. 소량의 미지 데이터를 사용하여 비회원 데이터의 점수를 크게 낮추고, 회원 데이터와의 편차를 확대함으로써 사전 학습 데이터 감지 성능을 향상시킵니다. 다양한 모델과 벤치마크 데이터셋에 대한 실험을 통해 FSD의 효과를 검증합니다.

시사점, 한계점

시사점:
LLM 사전 학습 데이터 감지 성능을 향상시키는 새로운 방법(FSD) 제시
기존 방법의 한계점인 다양하고 복잡한 사전 학습 데이터 문제 해결에 기여
공개 후 쉽게 수집 가능한 미지의 데이터를 활용하여 실용성 증대
다양한 모델과 데이터셋에서 성능 향상을 실험적으로 검증
한계점:
FSD의 성능 향상은 미지의 데이터에 대한 의존도가 높음. 적절한 미지 데이터 확보의 어려움 존재 가능성.
특정 도메인에 국한된 미지 데이터 사용 시 일반화 성능 저하 가능성.
사용된 미지 데이터의 양과 질에 따라 성능 변동 가능성.
새로운 LLM 아키텍처나 사전 학습 전략에 대한 일반화 가능성에 대한 추가 연구 필요.
👍