Anton Bulle Labate, Valesca Moura de Sousa, Sandro Rama Fiorini, Leonardo Guerreiro Azevedo, Raphael Melo Thiago, Viviane Torres da Silva
개요
본 논문은 대규모 언어 모델(LLM)이 외부 도구와 상호 작용할 때 발생하는 긴 출력 문제를 해결하는 새로운 방법을 제시한다. 특히 화학 및 재료 과학과 같이 동적이고 지식 집약적인 분야에서 LLM의 활용성을 높이는 데 초점을 맞춘다. 제안된 방법은 LLM이 정보 손실 없이 임의 길이의 도구 응답을 처리하고 활용할 수 있도록 메모리 포인터를 사용하여 도구 기능을 보존하고, 에이전트 기반 워크플로우에 원활하게 통합하며, 토큰 사용량과 실행 시간을 줄인다.