Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

A Multilingual, Culture-First Approach to Addressing Misgendering in LLM Applications

Created by
  • Haebom

저자

Sunayana Sitaram, Adrian de Wynter, Isobel McCrum, Qilong Gu, Si-Qing Chen

개요

본 논문은 42개 언어와 방언에 걸쳐 잘못된 성별 지칭(misgendering)을 평가하고 완화하기 위한 방법론을 제시합니다. 잘못된 성별 지칭은 개인의 정체성을 훼손하는 행위이며, 특히 영어 이외의 언어에서는 문법 및 문화적 요소로 인해 더욱 복잡한 문제를 야기합니다. 본 연구는 참여적 설계 접근 방식을 통해 다양한 언어에 적용 가능한 효과적이고 적절한 가이드라인을 개발하고, LLM 기반 응용 프로그램(회의록 요약)에서 이러한 가이드라인을 테스트했습니다. 데이터 생성 및 주석 단계 모두 사람이 참여하는 방식(human-in-the-loop)으로 진행되었으며, 그 결과 제안된 가이드라인이 요약 생성 시 잘못된 성별 지칭 비율을 효과적으로 줄이는 동시에 품질 저하 없이 성과를 보임을 확인했습니다. 본 연구는 다양한 언어와 문화에 걸쳐 포용적이고 책임감 있는 AI 기반 솔루션을 확장 가능한 방법을 제시하며, 42개 언어를 포함하는 가이드라인과 합성 데이터 세트, 그리고 사람과 LLM 평가 결과를 공개하여 추가 연구를 장려합니다.

시사점, 한계점

시사점:
다양한 언어에서 잘못된 성별 지칭 문제를 해결하기 위한 효과적인 가이드라인을 제시.
사람 중심의 접근 방식(human-in-the-loop)을 통해 다국어, 다문화 AI 시스템 개발의 실현 가능성을 입증.
42개 언어를 포함하는 가이드라인과 데이터셋을 공개하여 추가 연구 및 개발을 촉진.
LLM 기반 응용 프로그램에서 잘못된 성별 지칭 감소와 품질 유지를 동시에 달성.
한계점:
특정 언어나 문화적 맥락에 대한 가이드라인의 일반화 가능성에 대한 추가 연구 필요.
사용된 LLM 기반 응용 프로그램의 특수성으로 인한 다른 응용 프로그램으로의 일반화 가능성에 대한 추가 검증 필요.
human-in-the-loop 방식의 확장성 및 비용 효율성에 대한 추가적인 고려 필요.
다양한 문화적 배경을 가진 사람들이 모두 동일하게 가이드라인을 받아들일 것이라는 보장이 없을 수 있음.
👍