본 논문은 GPT-4o, Gemma 2, Llama 3.1 세 가지 대규모 언어 모델(LLM)에서 나타나는 9가지 인지적 편향을 1500개의 실험을 통해 조사한 연구입니다. GPT-4o는 전반적으로 가장 우수한 성능을 보였으며, Gemma 2는 매몰 비용 오류와 전망 이론에서 강점을 보였지만 편향에 따라 성능이 달랐습니다. Llama 3.1은 지속적으로 저조한 성능을 보였고, 휴리스틱에 의존하며 불일치와 모순을 자주 보였습니다. 이 연구는 LLM에서 강력하고 일반화 가능한 추론을 달성하는 데 어려움이 있음을 강조하며, 인공 일반 지능(AGI)의 편향을 완화하기 위한 추가 개발의 필요성을 강조합니다. 향후 AI 개발에 통계적 추론과 윤리적 고려 사항을 통합하는 것이 중요함을 강조합니다.