본 논문은 머신 언러닝(MU)을 다중 모달 대규모 언어 모델(MLLM)에 적용하는 방법, 특히 개념의 유출된 시각적 데이터를 잊도록 하는 방법을 제시합니다. 기존 방법의 한계를 극복하기 위해, 저자들은 단일 이미지 언러닝(SIU)이라는 효율적인 방법을 제안합니다. SIU는 다면적인 미세 조정 데이터 생성과 이중 마스크된 KL-divergence 손실 및 교차 엔트로피 손실을 결합한 공동 훈련 손실이라는 두 가지 주요 측면으로 구성됩니다. 또한, MLLM에서 MU를 위한 새로운 벤치마크인 MMUBench를 구축하고 평가를 위한 다양한 지표를 제시합니다. 실험 결과, SIU는 기존 방법보다 월등한 성능을 보이며, 멤버십 추론 공격 및 탈옥 공격을 회피하는 것으로 나타났습니다. 본 연구는 MLLM에서 MU를 탐구한 최초의 연구입니다.