Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Gender-Neutral Large Language Models for Medical Applications: Reducing Bias in PubMed Abstracts

Created by
  • Haebom

저자

Elizabeth Schaefer, Kirk Roberts

개요

본 논문은 의학 문헌에 사용되는 대규모 언어 모델(LLM)의 성별 편향을 완화하기 위한 파이프라인을 제시합니다. 1965년부터 1980년까지의 PubMed 초록 379,000개를 사용하여 직업과 관련된 대명사를 식별하고 수정하는 방식으로 진행되었습니다. 연구진은 수정된 초록으로 훈련된 BERT 기반 모델인 "MOBERT"를 개발하여 원본 데이터셋으로 훈련된 "1965BERT"와 성능을 비교했습니다. MOBERT는 70%의 포괄적인 대체율을 달성한 반면, 1965BERT는 4%에 그쳤습니다. MOBERT 분석 결과, 대명사 대체 정확도는 훈련 데이터에서 직업 용어의 빈도와 상관관계가 있는 것으로 나타났습니다. 향후 데이터 확장 및 파이프라인 개선을 통해 의학 분야 응용 프로그램에서 더욱 공정한 언어 모델링을 보장할 것을 제안합니다.

시사점, 한계점

시사점: 의학 문헌에서 LLM의 성별 편향을 완화하기 위한 효과적인 파이프라인과 MOBERT 모델을 제시. 데이터셋의 성격에 따라 성능 차이가 크게 나타남을 확인. 직업 용어 빈도와 대명사 대체 정확도의 상관관계를 밝힘.
한계점: 1965년부터 1980년까지의 데이터만 사용하여 모델을 훈련, 시대적 한계 존재. 데이터셋의 크기 및 범위 제한으로 인한 성능 저하 가능성. MOBERT의 포괄적인 대체율이 70%로 완벽하지 않음. 파이프라인 개선 및 데이터 확장의 필요성 제기.
👍