OpenAI의 ChatGPT와 같은 생성 AI 도구의 광범위한 사용 이후, 연구자들은 이를 글쓰기 과정에 활용하기 시작했습니다. 학계 출판 커뮤니티에서는 이러한 사용을 공개해야 한다는 합의가 이루어졌습니다. 본 논문은 학술 문헌에서 공개되지 않은 AI 사용 사례를 문서화하며, 특히 대규모 언어 모델(LLM) 기반 챗봇의 특징적인 표현이 연구 논문에 나타나는 것을 통해 이를 파악합니다. 분석된 768개의 사례는 문제가 광범위하게 퍼져 있으며, 높은 평판을 받는 출판사의 저널, 학회 논문집, 교과서까지 침투했음을 보여줍니다. 공개되지 않은 AI는 인용 지수가 높고, 논문 처리 비용(APC)이 높은 저널에서 더 자주 나타나는 경향을 보입니다. 게시 후 수정 사례는 매우 적으며, 수정 역시 문제를 완전히 해결하지 못하는 경우가 많습니다. 분석된 사례는 학술 문헌에 존재하는 공개되지 않은 AI의 극히 일부일 가능성이 높으며, 많은 부분이 감지되지 않을 수 있습니다. 출판사는 감지 가능한 경우 공개되지 않은 AI 사용에 대한 정책을 시행해야 하며, 이는 현재 학계 출판 커뮤니티가 공개되지 않은 AI 확산에 대응할 수 있는 최선의 방어 수단입니다.