본 논문은 GPT-4o, Gemma 2, Llama 3.1 세 가지 대규모 언어 모델(LLM)에서 나타나는 인지적 편향을 조사합니다. 9가지 기존의 인지적 편향에 걸쳐 1,500개의 실험을 수행하여 모델의 응답과 일관성을 평가했습니다. GPT-4o는 전반적으로 가장 우수한 성능을 보였고, Gemma 2는 매몰 비용 오류와 전망 이론 문제 해결에 강점을 보였으나 편향에 따라 성능이 달랐습니다. Llama 3.1은 일관되게 저조한 성능을 보이며 휴리스틱에 의존하고 빈번한 불일치와 모순을 보였습니다. 이 연구 결과는 LLM에서 견고하고 일반화 가능한 추론을 달성하는 데 어려움이 있음을 강조하며, 인공 일반 지능(AGI)의 편향을 완화하기 위한 추가 개발의 필요성을 강조합니다. 또한 향후 AI 개발에 통계적 추론과 윤리적 고려 사항을 통합하는 것이 중요함을 강조합니다.