본 논문은 Web3 생태계와 통합된 AI 에이전트의 보안 취약성을 실제 시나리오의 적대적 위협에 대한 실험적 분석을 통해 조사한다. 특히, 입력 채널, 메모리 모듈, 외부 데이터 피드 등 보호되지 않은 컨텍스트 표면을 악용하는 포괄적인 공격 벡터인 "컨텍스트 조작" 개념을 소개한다. 탈중앙화된 AI 에이전트 프레임워크인 ElizaOS를 사용한 실험을 통해, 공격자가 프롬프트나 과거 상호작용 기록에 악성 명령어를 주입하여 의도하지 않은 자산 이전 및 프로토콜 위반을 유발할 수 있음을 보여준다. 프롬프트 기반 방어는 부족하며, 악성 입력은 에이전트의 저장된 컨텍스트를 손상시켜 상호 작용과 플랫폼 전반에 걸쳐 연쇄적인 취약성을 만들 수 있다는 것을 밝혔다. 결론적으로, 안전하고 신뢰할 수 있는 AI 에이전트 개발의 필요성을 강조한다.