Sign In

Zero-Trust Artificial Intelligence Model Security Based on Moving Target Defense and Content Disarm and Reconstruction

Created by
  • Haebom
Category
Empty

저자

Daniel Gilkarov, Ran Dubin

개요

본 논문은 모델 동물원 및 파일 전송 메커니즘을 통한 AI 모델 배포의 어려움을 조사합니다. 보안 조치의 발전에도 불구하고 취약성이 지속되므로 위험을 효과적으로 완화하기 위해 다층적 접근 방식이 필요합니다. 모델 파일의 물리적 보안은 엄격한 접근 제어 및 공격 방지 솔루션을 필요로 합니다. 본 논문은 두 가지 예방 접근 방식으로 구성된 새로운 솔루션 아키텍처를 제안합니다. 첫 번째는 모델이 로드되는 즉시 공격자가 악성 코드를 실행할 수 있도록 하는 직렬화 공격을 무력화하는 데 중점을 둔 콘텐츠 무장 해제 및 재구성(CDR)입니다. 두 번째는 이동 목표 방어(MTD)를 사용하여 모델 아키텍처와 가중치를 공격으로부터 보호하고, 모델 구조에 경고를 제공하며, 이러한 공격을 감지하기 위한 검증 단계를 제공하는 것입니다. 본 논문은 매우 악용 가능한 Pickle 및 PyTorch 파일 형식에 중점을 둡니다. 알려진 AI 모델 저장소와 HuggingFace 모델 동물원의 실제 악성 코드 공격에 대해 검증된 100% 무력화율을 보여줍니다.

시사점, 한계점

시사점: AI 모델 배포의 보안 취약성을 효과적으로 해결하기 위한 새로운 아키텍처(CDR과 MTD 결합)를 제시함으로써, Pickle 및 PyTorch와 같은 취약한 파일 형식을 사용하는 AI 모델의 안전한 배포 및 활용에 기여할 수 있음. 실제 악성 코드 공격에 대한 높은 무력화율(100%)을 보여줌으로써, 제안된 아키텍처의 실효성을 입증.
한계점: Pickle 및 PyTorch 파일 형식에만 집중하여, 다른 AI 모델 파일 형식에 대한 적용 가능성 및 일반화 가능성에 대한 추가 연구가 필요함. 제안된 아키텍처의 성능 및 효율성에 대한 더욱 포괄적인 평가가 필요하며, 실제 환경에서의 구현 및 적용에 대한 추가적인 연구가 필요함. 특정 악성 코드 공격에 대한 테스트 결과만 제시되었으므로, 다양한 유형의 공격에 대한 견고성을 추가적으로 검증해야 함.
👍