Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

New York Smells: A Large Multimodal Dataset for Olfaction

Created by
  • Haebom
Category
Empty

저자

Ege Ozguroglu, Junbang Liang, Ruoshi Liu, Mia Chiquier, Michael DeTienne, Wesley Wei Qian, Alexandra Horowitz, Andrew Owens, Carl Vondrick

개요

본 논문은 동물들이 세상을 인지하는 데 중요한 역할을 하는 후각 정보를 기계가 접근하기 어렵다는 점에 주목하여, 자연 환경에서 수집된 다양하고 멀티모달한 후각 훈련 데이터의 부족 문제를 해결하고자 한다. 이를 위해, 저자들은 "New York Smells"라는 대규모 데이터 세트를 제시한다. 이 데이터 세트는 실내 및 실외 환경에서 3,500개의 서로 다른 객체로부터 수집된 7,000개의 냄새-이미지 쌍을 포함하며, 기존 후각 데이터 세트보다 약 70배 많은 객체를 포함한다. 이 데이터 세트를 기반으로 냄새-이미지 간 상호 모달 검색, 냄새만으로 장면, 객체, 재료 인식, 그리고 잔디 종 간의 미세한 구별을 수행하는 세 가지 벤치마크 작업을 제시한다. 실험 결과, 시각 데이터를 통해 상호 모달 후각 표현 학습이 가능하며, 학습된 후각 표현이 널리 사용되는 수작업 특징보다 우수함을 확인했다.

시사점, 한계점

시사점:
자연 환경에서 수집된 대규모 냄새-이미지 데이터 세트 구축을 통해 기계 학습 기반 후각 연구의 발전을 위한 기반 마련.
시각 정보와 후각 정보의 상호 작용을 활용한 새로운 후각 표현 학습 방법 제시.
학습된 후각 표현이 기존의 수작업 특징보다 우수한 성능을 보임으로써, 후각 정보 처리의 잠재력 입증.
한계점:
논문 자체에서 구체적인 한계점이 언급되지 않음.
👍