Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

(Ir)rationality in AI: State of the Art, Research Challenges and Open Questions

Created by
  • Haebom

저자

Olivia Macmillan-Scott, Mirco Musolesi

개요

본 논문은 인공지능(AI) 분야에서 중심 개념인 합리성에 대한 개념을 탐구한다. 인간의 추론을 시뮬레이션하거나 제한된 최적성을 달성하려는 시도 모두 인공 에이전트를 가능한 한 합리적으로 만드는 것을 목표로 한다. 하지만 AI 내에서 합리적인 에이전트를 구성하는 요소에 대한 통일된 정의는 없다. 이 논문은 AI에서 합리성과 비합리성을 조사하고 이 분야의 미해결 문제를 제시한다. 특히 경제학, 철학, 심리학 분야의 합리성 이해가 AI 내에서의 합리성 개념에 어떻게 영향을 미쳤는지 고찰한다. 인공 에이전트의 행동에 초점을 맞춰 특정 시나리오에서 최적일 수 있는 비합리적인 행동을 조사한다. 비합리적인 에이전트를 식별하고 상호 작용하는 관점에서 이를 다루는 몇 가지 방법이 개발되었지만, 이 분야의 연구는 여전히 제한적이다. 적대적 시나리오를 위해 개발된 방법들이 인공 에이전트와의 상호 작용에 적용될 수 있다. 또한 인간과 인공 에이전트 간의 상호 작용과 합리성의 역할을 논의하며, 인간과 인공 에이전트 모두의 잠재적인 비합리적 행동과 관련된 많은 질문들이 남아있음을 지적한다.

시사점, 한계점

시사점: AI 분야에서 합리성에 대한 다양한 관점과 접근 방식을 제시하고, 경제학, 철학, 심리학 등 다른 분야의 연구 결과를 AI 연구에 적용할 가능성을 보여준다. 비합리적인 에이전트에 대한 이해와 상호작용 방법 연구의 필요성을 강조한다. 적대적 시나리오에서 개발된 방법들을 인공 에이전트와의 상호작용에 적용할 수 있는 가능성을 제시한다.
한계점: AI에서 합리성에 대한 통일된 정의가 부재하며, 비합리적인 에이전트를 다루는 방법에 대한 연구가 아직 제한적이다. 인간과 인공 에이전트 간의 상호작용에서 나타나는 합리성 및 비합리성에 대한 연구가 더 필요하다. 본 논문은 주로 개념적 논의에 집중하며, 실증적인 연구 결과는 제한적이다.
👍