본 논문은 자율주행 자동차나 생체 인증과 같이 중요한 응용 분야에서 점점 더 많이 사용되는 인공지능(AI) 시스템의 이전 가능한 공격에 대한 취약성에 대한 우려를 제기한다. 여러 인스턴스, 도메인, 모델, 작업, 모달리티 또는 하드웨어 플랫폼에서 일반화되도록 설계된 이러한 공격은 보안, 개인 정보 보호 및 시스템 무결성에 심각한 위험을 초래한다. 이 논문은 회피, 백도어, 데이터 포이즈닝, 모델 절도, 모델 역추론, 멤버십 추론 및 사이드 채널 공격을 포함한 7가지 주요 범주에 걸쳐 이전 가능한 공격에 대한 최초의 종합적인 검토를 제공한다. 크로스 인스턴스, 크로스 도메인, 크로스 모달리티, 크로스 모델, 크로스 태스크 및 크로스 하드웨어라는 6차원 분류 체계를 도입하여 적대적 전략의 다양한 전달 경로를 체계적으로 포착한다. 이러한 프레임워크를 통해 AI 시스템에 대한 이전 가능한 공격의 기본 메커니즘과 실제적인 영향을 조사한다. 또한 데이터 증강 및 최적화 전략을 중심으로 이전 가능성을 향상시키는 최첨단 방법을 검토한다. 이 논문은 단편화된 연구를 통합하고 중요한 미래 방향을 제시함으로써 실제 AI 시스템에서 이전 가능한 위협을 이해하고 평가하며 방어하기 위한 기본적인 로드맵을 제공한다.