Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Safe at the Margins: A General Approach to Safety Alignment in Low-Resource English Languages -- A Singlish Case Study

Created by
  • Haebom

저자

Isaac Lim, Shaun Khoo, Roy Ka-Wei Lee, Watson Chua, Jia Yi Goh, Jessica Foo

개요

본 논문은 저자원 언어에서 대규모 언어 모델(LLM)의 안전성을 확보하는 문제를 다룹니다. 기존 안전 정렬 방법들은 영어 중심적이어서 효과가 제한적이라는 점을 지적하며, 싱글리시(Singlish)의 독성을 줄이기 위해 Llama 3-8B 변형인 SEA-Lion-v2.1-Instruct 모델에 대해 지도 미세 조정(SFT), 직접적 선호도 최적화(DPO), Kahneman-Tversky 최적화(KTO) 세 가지 방법을 비교 분석합니다. 실험 결과, SFT+KTO가 DPO보다 높은 샘플 효율성으로 우수한 안전성 정렬을 달성함을 보여줍니다. 또한, 향상된 KL divergence regularization을 통해 안정성을 높인 KTO-S를 제시합니다. 제안된 방법은 싱글리시 독성을 99% 감소시키고 TOXIGEN에도 일반화되며, 표준 LLM 벤치마크에서도 높은 성능을 유지하여 다국어 환경에서 더 안전한 AI 배포를 위한 확장 가능한 프레임워크를 제공합니다.

시사점, 한계점

시사점:
저자원 언어에서 LLM의 안전성 향상을 위한 효과적인 방법(SFT+KTO) 제시.
DPO보다 높은 샘플 효율성을 가진 안전 정렬 방법 제시.
개선된 안정성을 갖는 KTO-S 알고리즘 제안.
싱글리시 독성 감소에 대한 괄목할 만한 성과 (99% 감소).
다국어 환경에서의 안전한 AI 배포를 위한 확장 가능한 프레임워크 제공.
한계점:
연구 대상 언어가 싱글리시로 제한됨. 다른 저자원 언어로의 일반화 가능성에 대한 추가 연구 필요.
KTO-S의 안정성 향상에 대한 정량적 분석이 추가적으로 필요할 수 있음.
본 연구에서 사용된 특정 LLM(SEA-Lion-v2.1-Instruct)의 한계점이 다른 LLM에도 적용될 수 있는지 추가적인 검증이 필요함.
👍