본 논문은 기계 학습(ML) 모델의 보안, 개인 정보 보호 및 공정성과 관련된 다양한 위험에 대한 방어 기법들이 서로 의도하지 않은 상호 작용을 일으킬 수 있다는 문제점을 지적하며, 이러한 의도하지 않은 상호 작용을 평가하기 위한 Python 라이브러리인 Amulet을 소개한다. Amulet은 대표적인 공격, 방어 기법 및 메트릭을 포함하며, 모듈형 설계를 통해 확장성을 제공하고, 사용자 친화적인 API를 통해 입력 및 출력을 일관성 있게 처리하여 새로운 상호 작용 평가에도 적용 가능하다. Amulet은 ML 방어 기법 간의 상호 작용을 연구하기 위한 통합된 기반을 제공하며, 여러 위험에 걸쳐 의도하지 않은 상호 작용에 대한 최초의 체계적인 평가를 가능하게 한다.