본 논문은 멀티모달 대규모 언어 모델(MLLM)의 학습된 개인 정보, 오래된 지식 및 유해 콘텐츠로 인한 문제를 해결하기 위해, 입력 기반의, 학습이 필요 없는 테스트 타임 지식 삭제 프레임워크인 MLLMEraser를 제안한다. 제안하는 방법은 활성화 조작(activation steering)을 활용하여 파라미터 업데이트 없이 동적으로 지식을 삭제한다. MLLMEraser는 적대적으로 조작된 이미지-텍스트 쌍을 사용하여 지식 삭제 방향을 구축하고, 불필요한 간섭을 방지하기 위해 입력 기반 조작 메커니즘을 설계하여 보존된 지식에 대한 유용성을 유지하면서 지정된 콘텐츠에 대한 삭제를 수행한다. LLaVA-1.5 및 Qwen-2.5-VL 모델에 대한 실험 결과, MLLMEraser는 기존 MLLM 지식 삭제 방법보다 우수한 성능을 보였으며, 계산 비용이 낮고 유용성 저하가 최소화되었다.