본 논문은 AI가 생성한 텍스트에 대한 인간의 신뢰가 정확성에 대한 우려를 넘어선 편향에 의해 제한되는지를 탐구합니다. 세 가지 실험(텍스트 수정, 뉴스 기사 요약, 설득력 있는 글쓰기)을 통해 인간 평가자가 라벨이 지정된 콘텐츠와 라벨이 지정되지 않은 콘텐츠에 어떻게 반응하는지 조사했습니다. 맹검 검사에서는 두 유형의 텍스트를 구분할 수 없었지만, "AI 생성"으로 라벨이 지정된 콘텐츠보다 "인간 생성"으로 라벨이 지정된 콘텐츠를 30% 이상 선호하는 것으로 나타났습니다. 라벨을 의도적으로 바꾸었을 때도 같은 패턴이 관찰되었습니다. 이러한 AI에 대한 인간의 편향은 AI 성능을 과소평가하는 등 더 넓은 사회적, 인지적 의미를 지닙니다. 본 연구는 AI와 상호 작용하는 인간 판단의 한계를 강조하고, 특히 창의적인 분야에서 인간-AI 협업을 개선하기 위한 기반을 제공합니다.