Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

From n-gram to Attention: How Model Architectures Learn and Propagate Bias in Language Modeling

Created by
  • Haebom

저자

Mohsinul Kabir, Tasfia Tahsin, Sophia Ananiadou

개요

본 논문은 언어 모델(LM)의 편향에 대한 기존 연구가 주로 데이터 품질에 초점을 맞추고 모델 아키텍처와 데이터의 시간적 영향에는 상대적으로 적은 관심을 기울였다는 점을 지적합니다. 더욱 중요한 것은 편향의 기원을 체계적으로 조사한 연구가 거의 없다는 점입니다. 본 연구는 비교 행동 이론에 기반한 방법론을 제안하여 언어 모델링 중 편향 전파에서 훈련 데이터와 모델 아키텍처 간의 복잡한 상호 작용을 해석합니다. 트랜스포머를 n-gram LM과 관련짓는 최근 연구를 바탕으로 데이터, 모델 설계 선택 및 시간 역학이 편향 전파에 미치는 영향을 평가합니다. 그 결과, (1) n-gram LM은 편향 전파에서 컨텍스트 창 크기에 매우 민감한 반면, 트랜스포머는 아키텍처적 강건성을 보여주며, (2) 훈련 데이터의 시간적 기원이 편향에 상당한 영향을 미치고, (3) 서로 다른 모델 아키텍처가 제어된 편향 주입에 다르게 반응하며, 특정 편향(예: 성적 지향)이 불균형적으로 증폭됨을 밝힙니다. 언어 모델이 널리 사용됨에 따라 본 연구 결과는 편향을 완화하기 위해 증상이 아닌 데이터 및 모델 차원 모두에서 기원까지 추적하는 전체론적 접근 방식의 필요성을 강조합니다.

시사점, 한계점

시사점:
언어 모델의 편향은 데이터 품질뿐 아니라 모델 아키텍처와 데이터의 시간적 요소에도 영향을 받는다는 것을 밝힘.
n-gram LM과 트랜스포머의 편향 전파에 대한 차이점을 제시하고, 트랜스포머의 아키텍처적 강건성을 확인.
훈련 데이터의 시간적 기원이 언어 모델의 편향에 미치는 영향을 규명.
특정 편향이 모델 아키텍처에 따라 불균형적으로 증폭될 수 있음을 보임.
언어 모델의 편향 완화를 위해 데이터와 모델 양 측면에서 편향의 기원을 추적하는 포괄적인 접근 방식이 필요함을 강조.
한계점:
제시된 방법론의 일반성 및 다른 유형의 언어 모델이나 데이터셋에 대한 적용 가능성에 대한 추가 연구 필요.
편향의 정의 및 측정에 대한 명확한 기준 설정이 필요할 수 있음.
다양한 유형의 편향에 대한 분석이 더욱 심층적으로 이루어져야 함.
👍