Sign In

Cross-linguistic disagreement as a conflict of semantic alignment norms in multilingual AI~Linguistic Diversity as a Problem for Philosophy, Cognitive Science, and AI~

Created by
  • Haebom
Category
Empty

저자

Masaharu Mizumoto, Dat Tien Nguyen, Justin Sytsma, Mark Alfano, Yu Izumi, Koji Fujita, Nguyen Le Minh

개요

본 논문은 다국어 대규모 언어 모델(LLM)이 직면하는 종종 간과되는 문제, 즉 언어 간 내재적 의미 차이에 대해 다룬다. 언어적 차이로 인해 개념에 대한 의미적 차이로 인한 순수한 언어 간 불일치가 발생할 수 있다. 본 논문은 이러한 불일치를 다국어 LLM의 두 가지 기본 정렬 규범 간의 갈등으로 규정한다. 하나는 언어 간 보편적 개념을 추구하는 언어 간 일관성(CL-consistency)이고, 다른 하나는 언어별 의미 규범을 존중하는 민속적 판단과의 일관성(Folk-consistency)이다. 철학에서 사용되는 사례(지식-방법 귀속 사례)를 사용하여 영어와 일본어로 대화형 다국어 AI의 응답을 조사함으로써, 최첨단 LLM조차도 상이하고 내부적으로 불일치하는 응답을 제공한다는 것을 보여준다. 이러한 결과는 언어 간 지식 전이에 대한 새로운 질적 한계, 즉 개념적 언어 간 지식 장벽을 보여주며, 보편적 표현과 언어 간 전이 능력이 본질적으로 바람직하다는 가정에 도전한다. 또한 개발자의 정렬 정책의 충돌을 드러내며, LLM 연구자와 개발자에게 중요한 규범적 질문을 제기한다. 그 영향은 기술적 정렬 과제를 넘어, AI 개발의 기저에 있는 이상에 대한 규범적, 도덕적-정치적, 형이상학적 질문을 제기하며, 철학자와 인지 과학자와 공유하지만 아직 아무도 결정적인 답을 가지고 있지 않은 질문들을 제기하여, 언어 간 일관성의 실용적 이점과 언어적 다양성에 대한 존중 사이의 균형을 맞추기 위한 다학제적 접근 방식을 요구한다.

시사점, 한계점

시사점: 다국어 LLM의 언어 간 일관성과 민속적 판단과의 일관성 사이의 갈등을 밝힘으로써, 최첨단 LLM의 한계를 드러냈다. 언어 간 지식 전이에 대한 새로운 질적 한계(개념적 언어 간 지식 장벽)를 제시하며, 보편적 표현과 언어 간 전이 능력에 대한 기존 가정에 도전한다. AI 개발의 규범적, 도덕적-정치적, 형이상학적 측면에 대한 다학제적 연구의 필요성을 강조한다.
한계점: 특정 언어(영어와 일본어)와 특정 사례(지식-방법 귀속)에 대한 연구 결과를 바탕으로 일반화하는 데 한계가 있을 수 있다. 더욱 다양한 언어와 사례에 대한 추가 연구가 필요하다. LLM 개발자들의 정렬 정책의 충돌에 대한 자세한 분석이 부족하다. 언어 간 일관성과 언어적 다양성에 대한 존중 사이의 균형을 맞추는 구체적인 방법론 제시가 부족하다.
👍