Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

BountyBench: Dollar Impact of AI Agent Attackers and Defenders on Real-World Cybersecurity Systems

Created by
  • Haebom

저자

Andy K. Zhang, Joey Ji, Celeste Menders, Riya Dulepet, Thomas Qin, Ron Y. Wang, Junrong Wu, Kyleen Liao, Jiliang Li, Jinghan Hu, Sara Hong, Nardos Demilew, Shivatmica Murgai, Jason Tran, Nishka Kacheria, Ethan Ho, Denis Liu, Lauren McLane, Olivia Bruvik, Dai-Rong Han, Seungwoo Kim, Akhil Vyas, Cuiyuanxiu Chen, Ryan Li, Weiran Xu, Jonathan Z. Ye, Prerit Choudhary, Siddharth M. Bhatia, Vikram Sivashankar, Yuxuan Bao, Dawn Song, Dan Boneh, Daniel E. Ho, Percy Liang

개요

본 논문은 진화하는 실제 시스템에서 공격 및 방어 사이버 역량을 포착하는 최초의 프레임워크를 제시합니다. BountyBench라는 인스턴스를 통해 복잡한 실제 코드베이스를 가진 25개의 시스템을 설정하고, 취약성 라이프사이클을 포착하기 위해 Detect(새로운 취약성 감지), Exploit(특정 취약성 악용), Patch(특정 취약성 패치) 세 가지 작업 유형을 정의합니다. Detect 작업을 위해 새로운 성공 지표를 구성하고, 40개의 버그 바운티(10달러에서 30,485달러의 금전적 보상이 있는 취약성)를 추가하여 작업 난이도를 조절합니다. Claude Code, OpenAI Codex CLI, 그리고 GPT-4.1, Gemini 2.5 Pro Preview, Claude 3.7 Sonnet Thinking을 사용한 사용자 지정 에이전트 등 5개의 에이전트를 평가합니다. 결과적으로 OpenAI Codex CLI와 Claude Code는 방어 능력이 뛰어나고, 사용자 지정 에이전트는 공격과 방어 능력이 비교적 균형을 이루는 것으로 나타났습니다.

시사점, 한계점

시사점:
진화하는 실제 시스템에서의 공격 및 방어 사이버 역량을 평가하기 위한 새로운 프레임워크와 벤치마크(BountyBench) 제시.
다양한 AI 에이전트의 공격 및 방어 능력 비교 분석을 통해 각 에이전트의 강점과 약점 파악.
새로운 취약성 감지 지표 제시.
AI 에이전트의 사이버 보안 분야 적용 가능성 및 한계 제시.
한계점:
벤치마크에 사용된 시스템 및 버그 바운티의 수 제한.
평가에 사용된 AI 에이전트의 종류 제한.
실제 세계의 복잡성을 완벽하게 반영하지 못할 가능성.
더욱 다양한 유형의 취약성과 공격 기법에 대한 평가 필요.
장기적인 시스템 변화에 대한 에이전트 적응력 평가 부족.
👍