본 논문은 Web3에 통합된 AI 에이전트의 보안 취약성을 실제 시나리오의 적대적 위협에 노출된 상황에서 조사한다. 특히, 입력 채널, 메모리 모듈, 외부 데이터 피드 등 보호되지 않은 컨텍스트 표면을 악용하는 포괄적인 공격 벡터인 "컨텍스트 조작"을 소개한다. 기존의 프롬프트 주입보다 은밀하고 지속적인 위협인 메모리 주입을 보여주며, ElizaOS라는 분산형 AI 에이전트 프레임워크를 사용하여 악의적인 주입이 자산 이전 및 프로토콜 위반을 유발할 수 있음을 실증한다. Web3 중심의 벤치마크인 CrAIBench를 이용하여 150개 이상의 블록체인 작업과 500개 이상의 공격 테스트 사례를 평가하여 AI 모델이 메모리 주입에 더 취약함을 확인하고, 방어 전략으로 프롬프트 주입 방어 및 탐지기는 제한적인 보호만 제공하지만, 미세 조정 기반 방어는 공격 성공률을 크게 줄인다는 것을 보여준다.