Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

LED-Merging: Mitigating Safety-Utility Conflicts in Model Merging with Location-Election-Disjoint

Created by
  • Haebom

저자

Qianli Ma, Dongrui Liu, Qian Chen, Linfeng Zhang, Jing Shao

개요

본 논문은 사전 훈련된 대규모 언어 모델(LLM)을 특수 작업에 미세 조정하는 데 드는 상당한 계산 및 데이터 비용 문제를 해결하기 위해, 여러 작업별 모델을 통합하는 학습 없는 솔루션인 모델 병합에 초점을 맞춥니다. 기존 모델 병합 방법들의 안전성-유용성 충돌 문제(향상된 일반 기능이 안전 장치를 저하시키는 문제)를 해결하기 위해, 단순한 매개변수 크기 기반 선택으로 인한 뉴런 오식별 및 병합 중 발생하는 작업 간 뉴런 간섭이라는 두 가지 근본 원인을 밝힙니다. 이를 해결하기 위해, 기울기 기반 속성을 통해 작업별 뉴런을 찾고, 다중 모델 중요도 융합을 통해 중요한 뉴런을 동적으로 선택하며, 매개변수 격리를 통해 상충되는 업데이트를 분리하는 세 단계 프레임워크인 LED-Merging을 제안합니다. Llama-3-8B, Mistral-7B 및 Llama2-13B에 대한 광범위한 실험을 통해 LED-Merging이 유해 응답률을 효과적으로 줄이고(Llama-3-8B-Instruct의 HarmBench에서 31.4% 감소), 동시에 유용성 성능(GSM8K에서 52.39% 정확도 달성)의 95%를 유지함을 보여줍니다. LED-Merging은 안전성-유용성 충돌을 해결하고 안정적인 다중 작업 LLM을 구축하기 위한 경량의 학습 없는 패러다임을 제공합니다. 코드는 GitHub에서 이용 가능합니다.

시사점, 한계점

시사점:
기존 모델 병합 방식의 안전성-유용성 문제점을 명확히 규명하고 해결책을 제시.
LED-Merging을 통해 학습 없이 다중 작업 LLM을 효율적으로 구축 가능.
유해 응답률 감소 및 유용성 성능 유지라는 두 가지 목표를 동시에 달성.
경량화된 학습 없는 모델 병합 기법을 제시하여 계산 비용 절감.
한계점:
제안된 방법의 일반화 성능에 대한 추가적인 검증 필요.
다양한 LLM 아키텍처 및 작업에 대한 확장성 평가 필요.
특정 작업에 대한 뉴런의 중요도를 정확하게 판별하는 데 한계가 있을 수 있음.
매개변수 격리 방식의 최적화 및 개선 여지 존재.
👍