본 논문은 OpenAI의 ChatGPT나 Google의 Gemini와 같은 대규모 언어 모델(LLM) 기반 인공지능 시스템의 정치적 편향성을 다룬다. 기존 연구에서 정치적 성향 테스트를 사용하여 이러한 편향성을 정량화하려는 시도가 있었지만, 테스트의 교정 편향 및 실제 인간-AI 상호작용을 반영하지 못하는 제한된 응답 형식의 한계가 있었다. 따라서 본 연구는 네 가지 상호 보완적인 방법론(1. AI 생성 텍스트와 미국 공화당 및 민주당 의원들이 사용하는 언어의 언어적 비교, 2. AI 생성 정책 권고안에 내재된 정치적 관점 분석, 3. 정치적으로 관련된 공인에 대한 AI 생성 텍스트의 감정 분석, 4. 표준화된 정치적 성향 테스트)을 통합하여 주요 AI 시스템의 정치적 편향성을 평가하는 다중 방법론적 접근 방식을 사용한다. 연구 결과, 대부분의 현대 AI 시스템에서 일관된 좌익 편향이 나타나지만, 그 강도는 다양하다. 그러나 이러한 편향은 LLM의 고유한 특징이 아니며, 정치적으로 치우친 데이터로 미세 조정하면 이러한 모델을 이념적 스펙트럼 전체에 걸쳐 재정렬할 수 있음을 보여주는 선행 연구가 있다. AI 시스템의 체계적인 정치적 편향은 관점 다양성 감소, 사회적 양극화 증가, AI 기술에 대한 대중의 불신 가능성 등의 위험을 초래한다. 이러한 위험을 완화하기 위해 AI 시스템은 대부분의 합법적인 규범적 문제에 대해 중립성을 유지하면서 사실 정확성을 우선시하도록 설계되어야 하며, 투명성, 책임성 및 책임 있는 AI 개발을 보장하기 위해 독립적인 모니터링 플랫폼이 필요하다.