Pay More Attention to the Robustness of Prompt for Instruction Data Mining
Created by
Haebom
저자
Qiang Wang, Dawei Feng, Xu Zhang, Ao Shen, Yang Xu, Bo Ding, Huaimin Wang
개요
본 논문은 제한된 고품질 instruction data를 이용한 LLM의 instruction tuning 성능 향상에 초점을 맞추고 있습니다. 기존 연구를 바탕으로 prompt의 강건성(robustness)이 고품질 instruction data 선택에 미치는 영향을 탐구하며, 고품질 online instruction data mining을 위한 새로운 프레임워크를 제안합니다. 핵심적인 혁신은 prompt에 대한 공격(attack)을 통해 adversarial instruction data를 생성하고, Adversarial Instruction-Following Difficulty 지표를 도입하여 adversarial instruction data가 응답 생성에 얼마나 도움이 되는지 측정하는 것입니다. 또한, 고품질 online instruction data를 선택하기 위한 새로운 Adversarial Instruction Output Embedding Consistency 접근 방식을 제시합니다. 두 개의 benchmark dataset을 이용한 실험 결과를 통해 제안된 두 방법의 효과와 prompt 강건성 고려의 중요성을 확인합니다.
시사점, 한계점
•
시사점:
◦
prompt의 강건성을 고려한 고품질 instruction data mining 프레임워크 제시
◦
adversarial instruction data 생성 및 Adversarial Instruction-Following Difficulty 지표 활용을 통한 instruction data 품질 평가
◦
Adversarial Instruction Output Embedding Consistency 접근 방식을 통한 고품질 instruction data 선택
◦
제한된 고품질 데이터로 LLM 성능 향상 가능성 제시
◦
실험 결과를 통해 prompt 강건성 고려의 중요성을 실증적으로 확인
•
한계점:
◦
제안된 방법의 일반화 성능에 대한 추가적인 연구 필요
◦
다양한 종류의 LLM 및 instruction data에 대한 적용성 검증 필요
◦
Adversarial Instruction-Following Difficulty 및 Adversarial Instruction Output Embedding Consistency 지표의 해석 가능성 및 신뢰도에 대한 추가 분석 필요