본 논문은 NLP 모델의 악의적인 공격에 대한 취약성 평가 및 방어 기법 개발을 다루는 NLP 보안(NLPSec) 분야의 윤리적 측면을 연구합니다. NLP와 사이버 보안의 교차점에서의 연구는 더 안전한 NLP를 만드는 잠재력을 가지지만, 실수는 개인 정보 유출이나 악성 모델 확산과 같은 실질적인 피해를 초래할 수 있습니다. 따라서 논문은 기존 NLPSec 연구를 검토하고, 사이버 보안의 윤리적 규범과의 연관성을 탐구하며, 피해 최소화 및 책임 있는 공개와 같은 부분에서의 부족을 지적합니다. 마지막으로, NLP 연구자들이 윤리적으로 연구를 수행할 수 있도록 구체적인 권고안을 제시하며, 이를 "화이트햇 NLP"로 정의합니다.