[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Prompt Perturbations Reveal Human-Like Biases in LLM Survey Responses

Created by
  • Haebom

저자

Jens Rupprecht, Georg Ahnert, Markus Strohmaier

개요

본 논문은 대규모 언어 모델(LLM)을 사회과학 설문 조사의 인간 피험자 대용으로 사용하는 것에 대한 신뢰성과 반응 편향에 대한 취약성을 조사한다. World Values Survey (WVS) 질문을 사용하여 9가지 다양한 LLM을 대상으로 질문 방식과 답변 옵션 구조에 대한 11가지 변화를 적용하여 167,000개 이상의 모의 인터뷰를 실시하였다. 그 결과, LLM이 변화에 취약할 뿐만 아니라 모든 모델에서 강도는 다르지만 일관된 최신성 편향(recency bias)을 보이며, 마지막에 제시된 답변 옵션을 과도하게 선호하는 것을 발견하였다. 더 큰 모델이 일반적으로 더 강력하지만, 모든 모델은 다른 표현으로 바꾸는 것과 같은 의미 변화 및 복합적인 변화에 여전히 민감하다. 일련의 변화를 적용함으로써 LLM이 인간에게서 확인된 설문 조사 반응 편향과 부분적으로 일치한다는 것을 밝혀냈다. 이는 LLM을 사용하여 합성 설문 조사 데이터를 생성할 때 프롬프트 설계 및 강건성 테스트의 중요성을 강조한다.

시사점, 한계점

시사점:
LLM이 사회과학 설문조사에 적용될 때 반응 편향에 취약함을 보여줌.
LLM에서 일관되게 나타나는 최신성 편향을 확인.
LLM을 이용한 합성 설문 데이터 생성 시 프롬프트 설계 및 강건성 테스트의 중요성 강조.
LLM의 크기가 클수록 일반적으로 강건성이 높아짐.
LLM의 반응 편향이 인간의 반응 편향과 부분적으로 일치함을 확인.
한계점:
본 연구에서 사용된 LLM의 종류와 WVS 질문의 특성이 연구 결과의 일반화 가능성에 영향을 줄 수 있음.
더 다양한 유형의 설문 조사 질문과 퍼터베이션에 대한 추가 연구가 필요함.
LLM의 반응 편향을 완전히 제거할 수 있는 방법에 대한 추가 연구가 필요함.
👍