Your Finetuned Large Language Model is Already a Powerful Out-of-distribution Detector
Created by
Haebom
Category
Empty
저자
Andi Zhang, Tim Z. Xiao, Weiyang Liu, Robert Bamler, Damon Wischik
개요
본 논문은 사전 훈련된 거대 언어 모델(LLM)과 미세 조정된 변형 간의 우도 비율을 벗어난 분포(OOD) 탐지를 위한 기준으로 재검토합니다. 이러한 기준의 직관은 사전 훈련된 LLM이 방대한 양의 훈련 데이터로 인해 OOD 데이터에 대한 사전 지식을 가지고 있으며, 분포 내 데이터로 미세 조정되면 LLM은 그 차이를 구분할 수 있는 충분한 지식을 갖게 된다는 것입니다. LLMs의 성능을 활용하여 우도 비율이 효과적인 OOD 탐지 기준이 될 수 있음을 보여줍니다. 또한, 제안된 LLM 기반 우도 비율을 질의응답(QA) 시스템에서 OOD 질문을 탐지하는 데 적용하여 일반적인 질문에 대한 특수화된 LLMs의 성능을 향상시킬 수 있습니다. 우도는 현대 신경망 프레임워크 내의 손실 함수를 통해 쉽게 얻을 수 있으므로 이 방법을 실제로 구현하기가 간단합니다. 사전 훈련된 LLMs와 다양한 미세 조정된 모델은 모두 Hugging Face와 같은 온라인 플랫폼에서 널리 사용할 수 있으므로 제안된 기준은 추가 훈련 없이 OOD 탐지를 위해 손쉽게 통합할 수 있습니다. 먼 OOD, 가까운 OOD, 스팸 탐지 및 QA 시나리오를 포함한 여러 설정에서 포괄적인 평가를 수행하여 방법의 효과를 입증합니다. 코드는 https://github.com/andiac/LLMOODratio 에서 찾을 수 있습니다.