본 논문은 대규모 언어 모델(LLM)이 외부 웹 콘텐츠를 활용하는 과정에서 발생하는 문제, 즉 LLM 친화적이지 않은 형식과 제한된 컨텍스트 길이로 인한 어려움을 해결하기 위해 제안된 방법론에 대해 다룹니다. Chain of Summaries (CoS)라는 이 방법론은 헤겔의 변증법적 방법에서 영감을 받아, 초기 요약(정)을 질문을 통해(반) 한계를 파악하고 이를 개선하여 범용적인 요약(합)을 생성합니다. 이 과정을 통해 LLM이 현재 및 미래의 정보 요구사항을 충족할 수 있도록 합니다. TriviaQA, TruthfulQA, SQUAD 데이터셋에 대한 실험 결과, CoS는 제로샷 LLM 기준선보다 최대 66%, BRIO 및 PEGASUS와 같은 전문 요약 방법보다 최대 27% 높은 성능을 보였습니다. CoS가 생성한 요약은 소스 콘텐츠보다 높은 Q&A 성능을 보이며, 토큰 수를 현저히 줄이고 특정 다운스트림 LLM에 구애받지 않습니다. 이는 웹사이트 관리자가 LLM 접근성을 향상시키면서도 인간의 검토를 유지할 수 있는 매력적인 방법으로 제시됩니다.