Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

MLA-Trust: Benchmarking Trustworthiness of Multimodal LLM Agents in GUI Environments

Created by
  • Haebom

저자

Xiao Yang, Jiawei Chen, Jun Luo, Zhengwei Fang, Yinpeng Dong, Hang Su, Jun Zhu

개요

본 논문은 다중 모달 대규모 언어 모델 기반 에이전트(MLAs)의 신뢰성 평가를 위한 포괄적인 프레임워크인 MLA-Trust를 제시합니다. MLAs는 GUI 애플리케이션에서 웹 자동화부터 모바일 시스템까지 광범위한 자율적 기능을 제공하지만, 실제 세계에 직접적인 영향을 미칠 수 있다는 점에서 기존 언어 모델보다 신뢰성 문제가 더욱 심각합니다. 기존 벤치마크는 MLAs의 실행 가능한 출력, 장기간 불확실성, 다중 모달 공격 벡터 등의 고유한 문제를 제대로 다루지 못합니다. MLA-Trust는 진실성, 제어 가능성, 안전성, 개인 정보 보호의 네 가지 측면에서 MLAs의 신뢰성을 평가하며, 웹사이트 및 모바일 애플리케이션을 테스트 환경으로 활용하여 34가지의 고위험 상호 작용 과제와 풍부한 평가 데이터 세트를 설계합니다. 13개의 최첨단 에이전트를 대상으로 한 대규모 실험을 통해 다중 모달 상호 작용 시나리오에서 이전에는 알려지지 않았던 신뢰성 취약성을 밝혀냅니다. 특히, 다단계 상호 작용에서 유해 콘텐츠 생성이 가능해지는 등 정적 MLLM에서 상호 작용형 MLA로의 전환은 신뢰성을 상당히 저해합니다.

시사점, 한계점

시사점:
다중 모달 대규모 언어 모델 기반 에이전트(MLAs)의 신뢰성 평가를 위한 최초의 포괄적 프레임워크인 MLA-Trust를 제시.
웹사이트와 모바일 애플리케이션을 활용한 현실적인 테스트 환경과 고위험 상호작용 과제를 통해 MLAs의 신뢰성 취약성을 밝힘.
다단계 실행 과정에서 발생하는 위험 누적 및 예측 불가능한 위험을 제시.
상호작용형 MLAs의 신뢰성 문제가 정적 MLLMs보다 심각함을 보여줌.
MLA 신뢰성 평가를 위한 확장 가능한 툴박스 제공.
한계점:
본 연구에서 제시된 34가지 과제 및 평가 데이터셋의 일반화 가능성에 대한 추가 연구 필요.
다양한 유형의 MLAs와 상호 작용 환경에 대한 포괄적인 평가가 필요.
MLA-Trust 프레임워크의 지속적인 업데이트 및 개선 필요.
실제 세계의 복잡성을 완벽하게 반영하는 데는 한계가 있을 수 있음.
👍