본 연구는 대규모 언어 모델(LLM)이 인간과 유사한 언어 이해 및 생성 능력을 보이는 점에 착안하여, LLM이 인간과 유사한 성격 특성을 가지는지, 그리고 기존 성격 평가 도구를 적용할 수 있는지를 조사했습니다. 3가지 실험 연구를 통해 행동 기반 접근 방식을 사용했습니다. 연구 1에서는 재검사 신뢰도를 조사하여 LLM이 인간보다 변동성이 높고 입력에 민감하며 장기적인 안정성이 부족함을 발견했습니다. 이를 바탕으로 LLM의 특성을 역동적이고 입력 중심적인 것으로 개념화하는 분산된 성격 프레임워크를 제안했습니다. 연구 2에서는 성격 척도의 변이 간 일관성을 분석하여 LLM의 응답이 문항 어휘에 매우 민감하고 인간에 비해 내적 일관성이 낮음을 발견했습니다. 연구 3에서는 역할극 중 성격 유지에 대해 탐구하여 LLM의 특성이 프롬프트와 매개변수 설정에 의해 형성됨을 보여주었습니다. 이러한 결과는 LLM이 유동적이고 외부에 의존적인 성격 패턴을 나타냄을 시사하며, LLM 특유의 성격 프레임워크를 구성하고 인간-AI 상호 작용을 발전시키는 데 대한 통찰력을 제공합니다. 본 연구는 책임감 있는 AI 개발에 기여하고 지능형 시스템 시대에 성격 심리학의 경계를 확장합니다.