대규모 언어 모델(LLM)의 지식 편집(Knowledge Editing)은 모델을 재훈련하지 않고 일부 지식을 수정하는 것을 목표로 합니다. 기존 방법으로는 대규모 편집 시 편집의 신뢰성, 일반성, 지역성(Locality)을 보장하는 데 어려움이 있습니다. 본 논문은 동적 가중치 생성(MeG)을 기반으로 하는 대규모 편집 접근 방식을 제안하며, 이는 특정 계층에 동적 가중치 뉴런을 추가하고 입력 쿼리에 따라 해당 뉴런의 가중치를 생성하는 방식으로 대규모 지식 편집을 가능하게 합니다.
🔑 시사점 및 한계
•
MeG는 동적 가중치 뉴런을 통해 단일 뉴런으로 대규모 지식 편집을 달성할 수 있는 효율적인 방법을 제시합니다.
•
MeG는 기존 방법 대비 편집의 신뢰성, 일반성, 지역성 측면에서 상당한 성능 향상을 보여주었으며, 특히 지역성 지표에서 높은 개선을 보였습니다.
•
향후 연구에서는 MeG의 동적 가중치 생성 메커니즘을 더욱 최적화하거나, 다양한 LLM 아키텍처에 적용하는 방안을 고려해 볼 수 있습니다.