Greg Serapio-Garcia, Mustafa Safdari, Clement Crepy, Luning Sun, Stephen Fitz, Peter Romero, Marwa Abdulhai, Aleksandra Faust, Maja Mataric
개요
본 논문은 대규모 언어 모델(LLM)의 등장으로 인해 생성된 텍스트의 인격 특성이 중요해짐에 따라, 널리 사용되는 LLM에 대한 심리 측정학적으로 타당하고 신뢰할 수 있는 인격 검사 방법론을 제시합니다. 18개의 LLM에 이 방법을 적용하여 특정 프롬프트 구성 하에서 일부 LLM의 출력에서 인격 측정이 신뢰할 수 있고 타당하다는 것을 발견했습니다. 또한, 더 크고 지시어 미세 조정된 모델에서 합성 LLM 인격의 신뢰성과 타당성이 더 강하다는 증거를 제시하고, LLM 출력의 인격을 특정 인간 인격 프로필을 모방하도록 원하는 차원을 따라 형성할 수 있음을 보여줍니다. 마지막으로, 책임있는 AI와 관련하여 측정 및 형성 방법의 적용 및 윤리적 함의에 대해 논의합니다.