본 논문은 대규모 언어 모델(LLM)이 상반되는 정보를 학습할 때 관련 없는 지식까지 광범위하게 손상되는 심각한 문제점을 밝힙니다. 실험 결과, 10~100개의 상반되는 정보만 학습해도 관련 없는 지식의 최대 80%가 파괴되는 것을 확인했습니다. 이는 인간과 달리 LLM이 상반되는 정보를 무분별하게 받아들여 파괴적인 간섭을 일으키기 때문입니다. 선택적 가소성을 통해 이러한 간섭을 완화할 수 있는지 실험하기 위해, 기존에 자주 사용된 뉴런(stubborn)과 드물게 사용된 뉴런(plastic)을 구분하여 네트워크 업데이트를 시도했지만, 상반되는 정보 업데이트에서는 목표 전략에 관계없이 치명적인 간섭이 발생했습니다. GPT-2부터 GPT-J-6B까지 다양한 모델 크기에서 이러한 현상이 지속적으로 나타났습니다. 마지막으로, 간단한 모델 특징을 사용하여 상반되는 정보를 95% 이상의 정확도로 탐지할 수 있음을 보여주며, 이를 보호 메커니즘으로 활용할 수 있음을 시사합니다.