Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Mind Reading or Misreading? LLMs on the Big Five Personality Test

Created by
  • Haebom
Category
Empty

저자

Francesco Di Cursi, Chiara Boldrini, Marco Conti, Andrea Passarella

개요

본 논문은 텍스트 기반의 자동 성격 예측(APPT)을 위해 대규모 언어 모델(LLM)의 성능을 평가한다. 이진 Five Factor Model(BIG5)을 기반으로, GPT-4를 포함한 5가지 모델을 세 개의 서로 다른 데이터셋과 두 가지 프롬프트 전략(최소 프롬프트 vs. 언어적, 심리적 단서가 풍부한 프롬프트)을 사용하여 테스트했다. 풍부한 프롬프트는 무효 출력을 줄이고 클래스 균형을 개선했지만, 특성 존재를 예측하는 데 편향을 일으켰다. Openness와 Agreeableness는 비교적 쉽게 감지되었지만, Extraversion과 Neuroticism은 여전히 어려움을 겪었다. 오픈 소스 모델은 때때로 GPT-4 및 이전 벤치마크에 근접했지만, 어떠한 구성에서도 제로샷 이진 설정에서 일관되게 신뢰할 수 있는 예측을 얻지 못했다. 정확도 및 macro-F1과 같은 집계 지표는 상당한 비대칭성을 가리는 반면, 클래스별 재현율은 더 명확한 진단적 가치를 제공했다.

시사점, 한계점

현재의 out-of-the-box LLM은 APPT에 아직 적합하지 않다.
프롬프트 설계, 특성 프레이밍 및 평가 지표의 신중한 조정이 해석 가능한 결과를 얻는 데 필수적이다.
풍부한 프롬프트는 무효 출력을 줄이고 클래스 균형을 개선하지만, 특성 존재 예측에 편향을 유발한다.
Openness와 Agreeableness는 상대적으로 쉽게 감지되는 반면, Extraversion과 Neuroticism은 감지하기 어렵다.
정확도 및 macro-F1과 같은 집계 지표는 비대칭성을 가리고, 클래스별 재현율은 더 나은 진단적 가치를 제공한다.
제로샷 이진 설정에서 일관되게 신뢰할 수 있는 예측을 제공하는 구성은 없다.
👍