본 논문은 심층 강화 학습(DRL)에서 에이전트가 기존 기술 유지(안정성)와 새로운 지식 학습(가소성) 사이의 균형을 맞추는 데 어려움을 겪는 안정성-가소성 딜레마 문제를 해결하는 새로운 방법, 뉴런 수준 안정성-가소성 균형(NBSP)을 제안합니다. NBSP는 특정 뉴런이 특정 기술과 강하게 연관되어 있다는 점에 착안하여, 목표 지향적 방법을 통해 기존 지식 유지에 중요한 RL 기술 뉴런을 식별하고, 기울기 마스킹 및 경험 재생 기법을 사용하여 이러한 뉴런을 표적으로 하여 기존 기술을 보존하면서 새로운 작업에 대한 적응을 가능하게 하는 프레임워크를 제시합니다. Meta-World와 Atari 벤치마크에서의 다수의 실험 결과는 NBSP가 기존 방법보다 안정성과 가소성의 균형을 훨씬 잘 맞춘다는 것을 보여줍니다.