Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Large Language Models Do Not Simulate Human Psychology

Created by
  • Haebom

저자

Sarah Schroder, Thekla Morgenroth, Ulrike Kuhl, Valerie Vaquet, Benjamin Paa{\ss}en

개요

본 논문은 ChatGPT와 같은 대규모 언어 모델(LLM)이 심리학 연구에서 인간 참여자를 대체할 수 있다는 주장에 대해 비판적으로 검토한다. LLM이 인간 심리를 시뮬레이션한다는 가설에 대한 개념적 논거를 제시하고, 의미 변화에 따른 LLM과 인간 응답 간의 차이를 실증적으로 보여줌으로써 이를 뒷받침한다. 특히, 심리학적 반응에 대해 미세 조정된 CENTAUR 모델을 포함한 여러 LLM에서 새로운 항목에 대한 응답이 상이함을 보여주며, LLM의 신뢰성 부족을 강조한다. 따라서 LLM은 유용한 도구이지만, 모든 새로운 응용 분야에서 인간의 반응으로 검증되어야 하는 근본적으로 신뢰할 수 없는 도구로 취급되어야 한다고 결론짓는다.

시사점, 한계점

시사점: LLM이 인간 심리를 정확하게 시뮬레이션하지 못한다는 것을 실증적으로 보여줌으로써, 심리학 연구에서 LLM 사용에 대한 신중한 접근을 촉구한다. LLM을 심리학 연구에 활용할 때 인간 반응과의 검증이 필수적임을 강조한다.
한계점: 본 연구는 특정 LLM과 제한된 데이터셋에 기반한 결과를 제시하므로, 다른 LLM이나 더 광범위한 데이터셋에 대한 일반화에는 주의가 필요하다. LLM의 발전 속도를 고려했을 때, 본 연구의 결론이 장기적으로 유효할지에 대한 추가적인 연구가 필요하다.
👍