본 논문은 다국어 대규모 언어 모델(LLM)이 직면하는 종종 간과되는 문제, 즉 언어 간 내재적 의미 차이에 대해 다룬다. 언어적 차이로 인해 개념에 대한 의미적 차이로 인한 순수한 언어 간 불일치가 발생할 수 있다. 본 논문은 이러한 불일치를 다국어 LLM의 두 가지 기본 정렬 규범 간의 갈등으로 규정한다. 하나는 언어 간 보편적 개념을 추구하는 언어 간 일관성(CL-consistency)이고, 다른 하나는 언어별 의미 규범을 존중하는 민속적 판단과의 일관성(Folk-consistency)이다. 철학에서 사용되는 사례(지식-방법 귀속 사례)를 사용하여 영어와 일본어로 대화형 다국어 AI의 응답을 조사함으로써, 최첨단 LLM조차도 상이하고 내부적으로 불일치하는 응답을 제공한다는 것을 보여준다. 이러한 결과는 언어 간 지식 전이에 대한 새로운 질적 한계, 즉 개념적 언어 간 지식 장벽을 보여주며, 보편적 표현과 언어 간 전이 능력이 본질적으로 바람직하다는 가정에 도전한다. 또한 개발자의 정렬 정책의 충돌을 드러내며, LLM 연구자와 개발자에게 중요한 규범적 질문을 제기한다. 그 영향은 기술적 정렬 과제를 넘어, AI 개발의 기저에 있는 이상에 대한 규범적, 도덕적-정치적, 형이상학적 질문을 제기하며, 철학자와 인지 과학자와 공유하지만 아직 아무도 결정적인 답을 가지고 있지 않은 질문들을 제기하여, 언어 간 일관성의 실용적 이점과 언어적 다양성에 대한 존중 사이의 균형을 맞추기 위한 다학제적 접근 방식을 요구한다.