PARL-MT: Progress Awareness for Multi-Turn Function Calling
개요
본 논문은 여행 계획이나 다단계 데이터 분석과 같이 여러 차례의 대화로 진행되는 실제 응용 프로그램에서 대규모 언어 모델(LLM)의 성능을 향상시키기 위해 제안된 PARL-MT 프레임워크에 대해 설명합니다. PARL-MT는 단일 턴 기능 호출에서 획기적인 성공을 거둔 LLM이 다중 턴 대화에서 직면하는 과제, 특히 진행 상황 인지 능력, 과거 상호 작용 요약 능력, 그리고 장기적인 작업을 일관성 있게 수행하기 위한 미래 계획 능력을 해결합니다. PARL-MT는 진행 상황 인식을 LLM 훈련에 명시적으로 통합하며, 진행 상황 인식 생성(PAG) 파이프라인을 사용하여 대화 요약과 미래 작업 계획을 결합한 데이터 세트를 자동으로 구축하고, 진행 상황 인식 유도 강화 학습(PAG-RL) 알고리즘을 통해 컨텍스트 중복을 줄이고 로컬 작업과 전체 작업 완료 간의 정렬을 개선합니다.
시사점, 한계점
•
시사점:
◦
진행 상황 인식을 명시적으로 LLM 훈련에 통합하여 다중 턴 기능 호출의 효율성과 견고성을 향상시킴.
◦
진행 상황 인식 생성(PAG) 파이프라인을 통해 대화 요약 및 미래 작업 계획이 포함된 데이터 세트를 자동 구축.
◦
진행 상황 인식 유도 강화 학습(PAG-RL) 알고리즘을 통해 컨텍스트 중복을 줄이고, 지역 작업과 글로벌 작업 완료 간의 정렬을 개선.