Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Unveiling Transformer Perception by Exploring Input Manifolds

Created by
  • Haebom

저자

Alessandro Benfenati, Alfio Ferrara, Alessio Marta, Davide Riva, Elisabetta Rocchetti

개요

본 논문은 트랜스포머 모델의 입력 공간에서 등가 클래스를 탐색하는 일반적인 방법을 제시합니다. 제안된 접근 방식은 트랜스포머 아키텍처의 내부 레이어를 입력 매니폴드의 순차적인 변형으로 설명하는 수학적 이론에 기반합니다. 모델의 야코비안을 통해 출력 공간에 정의된 거리 메트릭의 당김의 고유값 분해를 사용하여 입력 공간에서 등가 클래스를 재구성하고 탐색할 수 있습니다. 본 방법은 두 가지 상호 보완적인 탐색 절차를 가능하게 합니다. 첫 번째는 원래 인스턴스와 동일한 클래스 확률 분포를 생성하는 입력 인스턴스를 검색하여 동일한 등가 클래스 내의 요소를 식별하고, 두 번째는 다른 클래스 확률 분포를 생성하는 인스턴스를 찾아 다른 등가 클래스로 효과적으로 이동합니다. 마지막으로, 검색된 인스턴스를 임베딩을 사람이 읽을 수 있는 형식으로 다시 투영하여 의미 있게 해석할 수 있음을 보여줍니다.

시사점, 한계점

시사점:
트랜스포머 모델의 입력 공간에서 등가 클래스를 탐색하는 일반적인 방법을 제공합니다.
모델의 야코비안을 활용하여 등가 클래스를 재구성하고 탐색합니다.
동일한 클래스 확률 분포를 갖는 인스턴스 식별 및 다른 클래스 확률 분포를 갖는 인스턴스 탐색을 가능하게 합니다.
검색된 인스턴스를 사람이 읽을 수 있는 형식으로 해석할 수 있도록 합니다.
한계점:
논문에서 구체적인 한계점은 명시되지 않음.
👍