Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

MLLMEraser: Achieving Test-Time Unlearning in Multimodal Large Language Models through Activation Steering

Created by
  • Haebom

저자

Chenlu Ding, Jiancan Wu, Leheng Sheng, Fan Zhang, Yancheng Yuan, Xiang Wang, Xiangnan He

MLLMEraser: Training-Free Knowledge Erasure for Multimodal Large Language Models

개요

본 논문은 멀티모달 대규모 언어 모델(MLLM)의 학습된 개인 정보, 오래된 지식 및 유해 콘텐츠로 인한 문제를 해결하기 위해, 입력 기반의, 학습이 필요 없는 테스트 타임 지식 삭제 프레임워크인 MLLMEraser를 제안한다. 제안하는 방법은 활성화 조작(activation steering)을 활용하여 파라미터 업데이트 없이 동적으로 지식을 삭제한다. MLLMEraser는 적대적으로 조작된 이미지-텍스트 쌍을 사용하여 지식 삭제 방향을 구축하고, 불필요한 간섭을 방지하기 위해 입력 기반 조작 메커니즘을 설계하여 보존된 지식에 대한 유용성을 유지하면서 지정된 콘텐츠에 대한 삭제를 수행한다. LLaVA-1.5 및 Qwen-2.5-VL 모델에 대한 실험 결과, MLLMEraser는 기존 MLLM 지식 삭제 방법보다 우수한 성능을 보였으며, 계산 비용이 낮고 유용성 저하가 최소화되었다.

시사점, 한계점

MLLM에서 개인 정보, 오래된 지식, 유해 콘텐츠 삭제를 위한 새로운 접근 방식 제시
학습 없이 테스트 시점에 지식 삭제를 수행하여 계산 비용 절감
활성화 조작과 입력 기반 조작 메커니즘을 통해 지식 삭제 성능 향상
LLaVA-1.5 및 Qwen-2.5-VL 모델에 대한 실험을 통해 우수한 성능 입증
기존 방법 대비 낮은 계산 비용과 최소한의 유용성 저하 달성
해당 논문에서 제시하는 MLLMEraser의 일반화 가능성 및 다양한 MLLM 모델에 대한 적용 가능성에 대한 추가 연구 필요
적대적 조작 과정의 효율성과 실제 환경에서의 견고성에 대한 추가 검증 필요
👍