본 논문은 사전 훈련된 언어 모델을 하위 작업에 적용하는 매개변수 효율적인 미세 조정 방법에서 노이즈 데이터의 간섭에 취약한 문제를 해결하기 위해 비대칭 LoRA 포이즈닝 전문가(LoPE)를 제안합니다. LoPE는 혼합 전문가 아키텍처에서 영감을 받아, 미세 조정 중 포이즈닝 전문가에 노이즈 주입을 수행하여 노이즈 식별 및 처리 능력을 향상시키는 2단계 패러다임을 사용합니다. 추론 중에는 전용 포이즈닝 전문가를 선택적으로 마스크하여 정상 전문가가 획득한 정제된 지식을 활용하여 노이즈에 강한 출력을 생성합니다. 기존의 노이즈 처리 방법과 달리, 데이터 전처리나 모델 아키텍처 수정 없이 생성된 노이즈 데이터만으로 모델의 노이즈 내성을 높입니다.
시사점, 한계점
•
시사점:
◦
데이터 정제 없이 생성된 노이즈 데이터만을 이용하여 노이즈에 강한 언어 모델 미세 조정을 가능하게 함.