Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Gazing at Rewards: Eye Movements as a Lens into Human and AI Decision-Making in Hybrid Visual Foraging

Created by
  • Haebom
Category
Empty

저자

Bo Wang, Dingwei Tan, Yen-Ling Kuo, Zhaowei Sun, Jeremy M. Wolfe, Tat-Jen Cham, Mengmi Zhang

개요

본 논문은 다양한 가치와 빈도를 가진 여러 종류의 목표물을 찾는 혼합된 탐색 과제(예: 동전 찾기)에서 인간의 탐색 및 안구 운동 행동을 연구합니다. 실험 결과, 인간은 보상을 효율적으로 탐색하며, 시선은 평균 보상이 높은 영역에 집중되고, 가치가 높은 목표물에 더 오래 머무르며, 최적의 탐색자에 근접한 누적 보상을 얻는다는 것을 밝혔습니다. 이러한 의사결정 과정을 탐구하기 위해 강화 학습을 통해 훈련된 트랜스포머 기반 시각적 탐색자(VF) 모델을 개발했습니다. VF 모델은 다양한 목표물, 가치, 검색 이미지를 입력으로 받아, 주시 영역 시각을 사용하여 이미지를 처리하고, 일련의 안구 운동과 각 고정된 항목을 수집할지 여부에 대한 결정을 생성합니다. VF 모델은 기준 모델들을 능가하고, 인간과 비슷한 누적 보상을 달성하며, 시간 제약 환경 내에서 인간의 탐색 행동과 편향을 근사합니다. 또한, 새로운 목표물, 보이지 않는 가치, 다양한 집합 크기를 가진 분포 외 과제에 대한 스트레스 테스트를 통해 VF 모델의 효과적인 일반화 능력을 보여줍니다. 본 연구는 안구 운동과 의사결정 간의 관계에 대한 귀중한 통찰력을 제공하며, VF 모델은 이러한 관계에 대한 추가 탐구를 위한 강력한 도구 역할을 합니다. 모든 데이터, 코드 및 모델은 https://github.com/ZhangLab-DeepNeuroCogLab/visual-forager 에서 이용 가능합니다.

시사점, 한계점

시사점:
인간의 효율적인 보상 탐색 전략과 안구 운동 패턴을 규명했습니다.
강화 학습 기반 시각적 탐색자(VF) 모델을 통해 인간의 탐색 행동을 성공적으로 모방했습니다.
VF 모델은 다양한 조건에서 일반화가 가능한 견고한 성능을 보여줍니다.
안구 운동과 의사결정 간의 관계 이해에 대한 새로운 통찰력을 제공합니다.
공개된 데이터와 코드를 통해 후속 연구를 위한 기반을 마련했습니다.
한계점:
실험 환경이 제한적일 수 있습니다 (예: 동전 찾기라는 특정 과제).
VF 모델의 일반화 능력은 다양한 환경에서 추가적인 검증이 필요합니다.
인간의 복잡한 인지 과정을 완벽하게 모방하지는 못할 수 있습니다.
모델의 해석 가능성에 대한 추가적인 연구가 필요할 수 있습니다.
👍