본 논문은 대규모 언어 모델(LLM)의 실제 세계 지식 갱신의 효율적이고 제어된 방법으로서 지식 편집(KE) 기법의 한계점을 극복하기 위해 새로운 방법인 SAKE를 제안한다. 기존 KE 기법들이 문맥에 대한 강건성 부족과 논리적 함의 일반화 실패 문제를 갖는다는 점을 지적하며, SAKE는 편집할 사실을 단일 프롬프트가 아닌 분포로 모델링하는 조향 활성화 방법을 제시한다. 최적 수송(Optimal Transport)을 활용하여, SAKE는 사실의 다양한 표현(paraphrases)과 논리적 함의를 포함하는 전체 사실 관련 분포에 걸쳐 LLM의 행동을 변경한다. 실험 결과, SAKE는 기존 방법보다 더 강건한 편집 성능을 보여준다.