본 논문은 인공지능(AI) 분야에서 중심 개념인 합리성에 대한 개념을 탐구한다. 인간의 추론을 시뮬레이션하거나 제한된 최적성을 달성하려는 시도 모두 인공 에이전트를 가능한 한 합리적으로 만드는 것을 목표로 한다. 하지만 AI 내에서 합리적인 에이전트를 구성하는 요소에 대한 통일된 정의는 없다. 이 논문은 AI에서 합리성과 비합리성을 조사하고 이 분야의 미해결 문제를 제시한다. 특히 경제학, 철학, 심리학 분야의 합리성 이해가 AI 내에서의 합리성 개념에 어떻게 영향을 미쳤는지 고찰한다. 인공 에이전트의 행동에 초점을 맞춰 특정 시나리오에서 최적일 수 있는 비합리적인 행동을 조사한다. 비합리적인 에이전트를 식별하고 상호 작용하는 관점에서 이를 다루는 몇 가지 방법이 개발되었지만, 이 분야의 연구는 여전히 제한적이다. 적대적 시나리오를 위해 개발된 방법들이 인공 에이전트와의 상호 작용에 적용될 수 있다. 또한 인간과 인공 에이전트 간의 상호 작용과 합리성의 역할을 논의하며, 인간과 인공 에이전트 모두의 잠재적인 비합리적 행동과 관련된 많은 질문들이 남아있음을 지적한다.