본 논문은 대규모 언어 모델(LLM)의 편향성, 사고방식 및 사회적 영향을 이해하기 위한 경험적 연구의 필요성을 강조하며, 특히 이념적 편향을 정량적으로 분석하는 새로운 프레임워크를 제시합니다. 436개의 2택 1안 질문(많은 질문이 정답이 없는 유형)을 사용하여 ChatGPT와 Gemini를 분석한 결과, LLM은 많은 주제에 대해 일관된 의견을 유지하지만 모델과 언어에 따라 이념적 차이를 보이는 것으로 나타났습니다. 특히 ChatGPT는 질문자의 의견에 맞추는 경향을 보였으며, 두 모델 모두 문제가 되는 편향, 비윤리적이거나 불공정한 주장을 보여 사회적 부정적 영향을 미칠 수 있음을 시사했습니다. 본 연구는 LLM 평가 시 이념적, 윤리적 고려 사항을 모두 다루는 것이 중요함을 강조하며, 제시된 프레임워크는 LLM의 행동을 평가하는 유연하고 정량적인 방법을 제공하여 사회적으로 조화로운 AI 시스템 개발에 귀중한 통찰력을 제공합니다.