본 연구는 대규모 언어 모델(LLM)이 과학 논문을 요약할 때 발생하는 컨텍스트 불일치 환각 현상을 완화하기 위해 프롬프트 엔지니어링(PE) 기법의 효과를 조사합니다. 8개의 효모 생명공학 연구 논문 초록을 대상으로, 6개의 instruction-tuned LLM에 7가지 프롬프트 기법(기본, instruction 복잡도 증가 2단계, 컨텍스트 반복 2단계, 무작위 추가 2단계)을 적용하여 제로샷 요약을 수행했습니다. 336개의 LLM 생성 요약문을 ROUGE-1, ROUGE-2, ROUGE-L, BERTScore, METEOR, 코사인 유사도 6가지 지표를 사용하여 평가했습니다. 통계 분석 결과, 컨텍스트 반복(CR) 및 무작위 추가(RA) 기법이 요약문의 어휘적 정렬을 유의미하게 개선하는 것으로 나타났습니다.