Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Can Language Models Follow Multiple Turns of Entangled Instructions?

Created by
  • Haebom
Category
Empty

저자

Chi Han

개요

본 논문은 대규모 언어 모델(LLM)의 여러 지시사항 처리 능력에 대한 체계적인 연구를 제시합니다. 실제 시나리오에서 여러 지시사항은 종종 상호 연관되거나 상충될 수 있으며, 일관성 유지를 위해서는 여러 차례의 지시사항을 통합하고 상충되는 목표 간의 균형을 신중하게 맞춰야 합니다. 연구진은 인간 참여 방식을 통해 약 1,100개의 고품질 다중 턴 대화로 구성된 MultiTurnInstruct 데이터셋을 구축하고, 정보 검색, 턴 간 추적 및 추론, 지시사항 간 충돌 해결 등 세 가지 난이도 수준에 걸쳐 LLM의 능력을 평가했습니다. 평가 결과, GPT 모델은 우수한 기억 능력을 보이지만 개인 정보 보호와 같은 선택적 정보 은닉이 필요한 작업에서는 효율성이 떨어지는 반면, 더 큰 모델은 더 강력한 추론 능력을 보이지만 여전히 상충되는 지시사항을 해결하는 데 어려움을 겪는다는 것을 발견했습니다. 이는 단순한 정보 손실 때문이 아니며, 모델이 기억 작업에서 높은 BLEU 점수를 보임에도 불구하고 주의 메커니즘이 여러 관련 지시사항을 효과적으로 통합하지 못하기 때문임을 밝혔습니다.

시사점, 한계점

시사점: 다중 턴 지시사항 처리에 있어 LLM의 능력에 대한 체계적인 분석을 제공하며, 모델의 기억 능력과 추론 능력 간의 상충 관계를 보여줍니다. 실제 세계의 복잡한 작업에서 다중 턴 지시사항 처리를 개선하기 위한 중요한 영역을 제시합니다. 개인 정보 보호, 선호도, 우선 순위 설정 등 실제 세계의 요구사항을 반영한 다중 턴 지시사항 처리 평가의 중요성을 강조합니다.
한계점: MultiTurnInstruct 데이터셋의 규모가 상대적으로 작을 수 있습니다. 다양한 유형의 LLM에 대한 평가가 더 확장될 필요가 있습니다. 상충되는 지시사항 해결에 대한 보다 정교한 분석 및 해결 방안 연구가 필요합니다. 주의 메커니즘의 효과적인 지시사항 통합 방식에 대한 추가 연구가 필요합니다.
👍