본 논문은 대규모 언어 모델(LLM)의 지식을 효율적이고 정확하게 업데이트하는 지식 편집 기술에 대해 다룬다. 기존 방법들의 특정 모델에 대한 과적합 문제와 빈번한 재편집 필요성을 해결하기 위해, 모델 간 지식 편집 문제를 제시하고 MindBridge라는 확장 가능한 솔루션을 제안한다. MindBridge는 다중 모달 모델에서 모달리티 처리와 LLM 간의 느슨한 결합에서 영감을 얻어, 편집된 지식을 독립적인 모달리티로 인코딩하는 새로운 메모리 모달리티 개념을 도입한다. LLM과 무관하게 메모리 모달리티를 사전 훈련한 후 다양한 LLM과 통합하여, 여러 LLM과 인기 있는 지식 편집 데이터셋에서 우수한 성능을 달성함을 실험적으로 보여준다.