Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Wait, that's not an option: LLMs Robustness with Incorrect Multiple-Choice Options

Created by
  • Haebom

저자

Gracjan Goral, Emilia Wisnios, Piotr Sankowski, Pawe{\l} Budzianowski

개요

본 논문은 여러 선택지 질문 중 정답이 없는 경우, 지시사항 따르기와 비판적 추론 능력의 균형을 평가하는 새로운 프레임워크를 제시합니다. 산술, 특정 분야 지식, 고위험 의료 의사 결정 과제에 대한 체계적인 평가를 통해, 사후 조정된 모델은 잘못된 옵션을 선택하는 경향이 있는 반면, 기본 모델은 모델 크기에 따라 향상된 거부 능력을 보이는 것을 보여줍니다. 분석 결과, 유용성을 높이기 위한 조정 기술이 의도치 않게 모델의 반성적 판단(잘못된 옵션에 직면했을 때 기본 동작을 무시하는 능력)을 손상시킬 수 있음을 밝힙니다. 또한 유사한 지시사항 따르기 편향을 보여주는 병렬 인간 연구를 수행하여, 이러한 편향이 정렬에 사용되는 인간 피드백 데이터 세트를 통해 어떻게 전파될 수 있는지에 대한 시사점을 제시합니다. 모델 크기, 훈련 기술 및 프롬프트 엔지니어링의 영향을 조사하는 광범위한 ablation 연구를 제공합니다. 이 연구 결과는 조정 최적화와 비판적 추론 능력 보존 사이의 근본적인 긴장감을 강조하며, 실제 배포를 위한 보다 강력한 AI 시스템 개발에 중요한 시사점을 제공합니다.

시사점, 한계점

시사점:
LLM의 지시사항 따르기와 비판적 추론 능력 간의 균형 평가를 위한 새로운 프레임워크 제시
사후 조정된 모델의 잘못된 옵션 선택 경향과 기본 모델의 크기 기반 거부 능력 향상 확인
모델 조정이 반성적 판단 능력을 저해할 수 있음을 밝힘
인간 피드백 데이터셋에서의 편향 전파 가능성 제시
모델 크기, 훈련 기술 및 프롬프트 엔지니어링의 영향에 대한 심층 분석 제공
실제 AI 시스템 개발을 위한 중요한 시사점 제시
한계점:
본 연구의 프레임워크와 결과의 일반화 가능성에 대한 추가 연구 필요
다양한 유형의 LLM과 조정 기법에 대한 추가 실험 필요
인간 피드백 데이터셋에서의 편향 완화 방안에 대한 추가 연구 필요
👍