Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Topology Matters: Measuring Memory Leakage in Multi-Agent LLMs

Created by
  • Haebom
Category
Empty

저자

Jinbo Liu, Defu Cao, Yifei Wei, Tianyao Su, Yuan Liang, Yushun Dong, Yue Zhao, Xiyang Hu

개요

본 논문은 다중 에이전트 LLM 시스템에서 그래프 토폴로지가 메모리 유출에 미치는 영향을 정량적으로 측정하는 MAMA (Multi-Agent Memory Attack) 프레임워크를 소개합니다. MAMA는 PII(Personally Identifiable Information)가 포함된 합성 문서를 사용하여 생성된 작업 지시를 통해 에이전트 간의 상호 작용을 시뮬레이션하고, 유출을 정량화합니다. 6가지 일반적인 네트워크 토폴로지 (완전 연결, 링, 체인, 이진 트리, 스타, 스타-링)에서 에이전트 수, 공격자-대상 위치, 기본 모델 등을 다양하게 실험하여, 네트워크 구조가 유출에 미치는 영향을 분석합니다.

시사점, 한계점

시사점:
완전 연결 그래프는 최대 유출을, 체인 구조는 가장 강력한 보호를 제공합니다.
공격자-대상 간의 짧은 그래프 거리와 높은 대상 중심성은 취약성을 증가시킵니다.
유출은 초기 라운드에서 급격히 증가한 후 안정화됩니다.
모델 선택은 절대 유출률을 변화시키지만, 토폴로지 순위는 유지됩니다.
시간/위치 관련 PII 속성이 신원 정보 또는 규제 식별자보다 쉽게 유출됩니다.
희소하거나 계층적인 연결, 공격자-대상 분리 극대화, 노드 차수 및 네트워크 반경 제한, 허브 우회 방지, 토폴로지 인식 접근 제어의 필요성을 제시합니다.
한계점:
논문 내 한계점에 대한 직접적인 언급은 없음.
👍