대규모 언어 모델(LLM)이 인간의 인지 패턴을 보이는지 심리학의 4가지 프레임워크(주제 통각 검사(TAT), 프레이밍 편향, 도덕적 기반 이론(MFT), 인지 부조화)를 통해 연구. 구조화된 프롬프트와 자동 채점을 사용하여 여러 독점 및 오픈 소스 모델을 평가. 모델은 일관된 내러티브를 생성하고, 긍정적 프레이밍에 취약하며, 자유/억압 관련 문제에 맞춰 도덕적 판단을 내리고, 광범위한 합리화로 완화된 자기 모순을 보임. 이러한 행동은 인간의 인지적 경향을 반영하지만, 훈련 데이터 및 정렬 방식에 의해 형성됨. AI 투명성, 윤리적 배포, 인지 심리학과 AI 안전을 연결하는 향후 연구에 대한 시사점 논의.