この論文は、AI(AI)の分野で中心的な概念である合理性の概念を探る。人間の推論をシミュレートしたり、限られた最適性を達成したりする試みは、人工エージェントをできるだけ合理的にすることを目的としています。しかし、AI内で合理的なエージェントを構成する要素の統一された定義はありません。この論文はAIで合理性と非合理性を調査し、この分野の未解決の問題を提示します。特に、経済学、哲学、心理学の分野における合理性の理解がAI内の合理性の概念にどのように影響したかを考察する。人工エージェントの行動に焦点を当て、特定のシナリオで最適である可能性がある非合理的な行動を調べます。非合理的なエージェントを識別し対話するという観点から、これに対処するいくつかの方法が開発されましたが、この分野の研究は依然として制限されています。敵対的なシナリオのために開発された方法は、人工エージェントとの相互作用に適用することができる。また、人間と人工エージェントの間の相互作用と合理性の役割を議論し、人間と人工エージェントの両方の潜在的な非合理的な行動に関連する多くの質問が残っていることを指摘しています。