본 논문은 ChatGPT, Gemini, Claude 세 가지 대규모 언어 모델(LLM)의 정치적 허위 정보 대응 능력을 실험적으로 연구한 결과를 제시합니다. 두 단계의 사고 과정 프롬프트 방식(먼저 주장에 대한 신뢰할 수 있는 출처를 식별한 후 설득력 있는 답변을 생성)을 사용하여 실험을 진행했습니다. 연구 결과, 모델들은 답변을 실제 뉴스 출처에 근거하는 데 어려움을 겪고 좌편향 출처를 선호하는 경향을 보였으며, 모델 간 응답의 다양성도 다르게 나타났습니다. 따라서 단순한 프롬프트 엔지니어링만으로 LLM을 사실 확인에 사용하는 것에 대한 우려를 제기하며, 보다 강력한 안전장치의 필요성을 강조합니다. 연구 결과는 연구자와 비기술 사용자 모두에게 시사점을 제공합니다.