본 논문은 생성형 AI가 의료 정보 질의에 대한 답변을 생성할 때, 정보 검색 및 인용 근거 확인과 같은 기술을 사용하더라도 환자의 오해를 야기할 수 있다는 점을 주장합니다. 의료 분야의 높은 위험성을 고려할 때, AI가 출처 문서에서 환각 없이 사실적으로 정보를 생성하더라도, 환자는 원본 자료를 읽거나 전문의와 상담하는 것과는 다른 해석을 내릴 수 있습니다. 논문은 논쟁적인 진단 및 시술 안전성 등의 주제에 대한 대규모 질의 분석을 통해, 현재 시스템의 부적절한 답변에 대한 정량적 및 정성적 증거를 제시합니다. 특히, AI 모델이 사실의 맥락을 무시하고, 중요한 관련 출처를 생략하며, 환자의 잘못된 생각이나 편향을 강화하는 경향이 있음을 강조합니다. 논문은 의사소통의 실용성 통합 및 출처 문서에 대한 이해도 향상 등의 여러 권장 사항을 제시하며, 이는 의료 분야를 넘어서도 적용될 수 있습니다.