본 논문은 대규모 언어 모델(LLM)이 대화 참여자 간의 상호 이해를 위한 공통 기반(conversational grounding)을 어떻게 다루는지, 특히 정치 영역의 사실에 대해 잘못된 정보와 공통 기반 실패 위험이 높은 상황을 중심으로 조사한다. LLM이 직접적인 지식 질문과 잘못된 정보를 전제하는 함정 질문에 답하는 능력을 평가하고, LLM의 지식 수준과 정치적 편향과 관련하여 함정 질문이 LLM이 적극적인 공통 기반 구축에 참여하고 사용자의 잘못된 믿음을 수정하도록 이끄는지 여부를 평가한다. 연구 결과는 LLM이 공통 기반 구축과 잘못된 사용자 믿음 거부에 어려움을 겪는다는 것을 보여주며, 정치 담론에서 잘못된 정보를 완화하는 데 있어 LLM의 역할에 대한 우려를 제기한다.