본 논문은 생성형 AI 챗봇에서의 확인 편향 현상을 다룬다. 인지 심리학과 계산 언어학을 바탕으로, 기존 신념과 일치하는 정보를 찾으려는 경향인 확인 편향이 대규모 언어 모델의 설계 및 기능에 의해 어떻게 재현되고 증폭될 수 있는지 조사한다. 챗봇 상호 작용에서 확인 편향이 나타나는 메커니즘을 분석하고, 이러한 편향과 관련된 윤리적, 실질적 위험을 평가하며, 완화 전략을 제시한다. 이는 기술적 개입, 인터페이스 재설계 및 균형 잡힌 AI 생성 담론을 촉진하기 위한 정책 조치를 포함한다. 마지막으로, 생성형 AI 시스템의 확인 편향을 더 잘 이해하고 해결하기 위해 학제 간 협력과 경험적 평가의 필요성을 강조하며 향후 연구 방향을 제시한다.