본 논문은 과학적 글쓰기, 특히 초록 작성을 돕는 도구로서 대규모 언어 모델(LLM)의 잠재력을 연구한다. 관련 전문 지식을 가진 참가자들을 저자와 심사자로 나누어 무작위 대조 실험을 설계하고, 행동 과학 기법을 활용하여 인센티브 구조를 도입했다. 2x2 실험 설계를 통해 초록의 출처(인간 vs AI)와 출처 공개 여부를 변수로 설정하여 실험을 진행했다. AI 생성 초록이 인간 작성 초록에 비해 수정 횟수가 적었으며, 출처가 공개되면서 수정 횟수의 차이가 줄어들었다. 심사자 결정은 초록의 출처에 영향을 받지 않았지만, 수정 횟수와 상관관계가 있었다. AI 생성 초록은 최소한의 수정으로도 인간 작성 초록과 유사한 수준의 수용 가능성에 도달할 수 있으며, AI 저작에 대한 인식 자체가 편집 행동에 큰 영향을 미치는 것으로 나타났다.