Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

How do Transformer Embeddings Represent Compositions? A Functional Analysis

Created by
  • Haebom

저자

Aishik Nagar, Ishaan Singh Rawal, Mansi Dhanania, Cheston Tan

개요

본 논문은 Transformer 기반 언어 모델(Mistral, OpenAI Large, Google embedding models, BERT)에서 복합어 표현의 구성성(compositionality)을 조사합니다. 여섯 가지 다양한 구성성 모델(덧셈, 곱셈, 팽창, 회귀 등)을 사용하여 평가한 결과, 선형 모델인 Ridge regression이 가장 잘 구성성을 설명하는 것으로 나타났습니다. 놀랍게도, 기존의 벡터 덧셈 모델 또한 다른 모델들과 거의 비슷한 성능을 보였습니다. 대부분의 임베딩 모델은 높은 구성성을 보이는 반면, BERT는 상대적으로 낮은 구성성을 보였습니다. 명확한 형용사-명사 조합으로 구성된 합성 데이터셋을 사용하여 결과를 검증하고 시각화했습니다.

시사점, 한계점

시사점: 다양한 Transformer 기반 언어 모델의 복합어 표현에 대한 구성성을 체계적으로 분석하고, 벡터 덧셈과 같은 간단한 모델도 상당한 성능을 보임을 밝혔습니다. Ridge regression이 구성성을 잘 설명하는 모델임을 제시했습니다. BERT와 다른 모델 간의 구성성 차이를 보여주었습니다.
한계점: 본 연구는 특정 유형의 복합어(형용사-명사 조합)에만 집중하여 일반화 가능성에 대한 추가 연구가 필요합니다. 사용된 구성성 모델의 종류와 수가 제한적일 수 있습니다. 실제 언어 사용의 복잡성을 완전히 반영하지 못할 수 있습니다.
👍