Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

From n-gram to Attention: How Model Architectures Learn and Propagate Bias in Language Modeling

Created by
  • Haebom

저자

Mohsinul Kabir, Tasfia Tahsin, Sophia Ananiadou

개요

본 논문은 언어 모델(LM)의 편향에 대한 기존 연구가 주로 데이터 품질에 초점을 맞추고 모델 아키텍처와 데이터의 시간적 영향에는 상대적으로 적은 관심을 기울였다는 점을 지적하며, 편향의 기원을 체계적으로 조사한 연구 또한 부족함을 강조합니다. 비교 행동 이론에 기반한 방법론을 제시하여 언어 모델링 과정에서 데이터와 모델 아키텍처 간의 복잡한 상호작용이 편향 전파에 미치는 영향을 해석합니다. 트랜스포머를 n-gram LM과 관련짓는 최근 연구를 바탕으로 데이터, 모델 설계 선택 및 시간적 역학이 편향 전파에 미치는 영향을 평가합니다. 그 결과, (1) n-gram LM은 편향 전파에서 컨텍스트 창 크기에 매우 민감한 반면, 트랜스포머는 아키텍처적 강건성을 보이며, (2) 훈련 데이터의 시간적 기원이 편향에 상당한 영향을 미치고, (3) 서로 다른 모델 아키텍처가 조절된 편향 주입에 다르게 반응하며, 특정 편향(예: 성적 지향)이 불균형적으로 증폭됨을 밝힙니다. 결론적으로, 언어 모델의 널리 퍼짐에 따라, 편향을 완화하기 위해서는 데이터와 모델 차원 모두에서 편향의 기원을 추적하는 전반적인 접근 방식이 필요함을 강조합니다.

시사점, 한계점

시사점:
언어 모델의 편향은 데이터 품질뿐 아니라 모델 아키텍처와 데이터의 시간적 영향에도 크게 의존한다는 사실을 밝힘.
n-gram LM과 트랜스포머의 편향 전파 메커니즘에 대한 차이점을 제시함.
특정 편향이 특정 모델 아키텍처에서 불균형적으로 증폭될 수 있음을 보임.
언어 모델의 편향 완화를 위해 데이터와 모델 차원 모두에서 편향의 기원을 추적하는 포괄적인 접근 방식의 필요성을 제시함.
한계점:
본 연구에서 사용된 데이터셋과 모델 아키텍처의 일반화 가능성에 대한 추가 연구가 필요함.
다양한 유형의 편향 및 그들의 상호작용에 대한 더욱 심층적인 분석이 필요함.
제시된 방법론의 실제 적용 및 효과에 대한 추가적인 실험적 검증이 필요함.
👍