Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents

Created by
  • Haebom

저자

Alessio Buscemi, Daniele Proverbio, Paolo Bova, Nataliya Balabanova, Adeela Bashir, Theodor Cimpeanu, Henrique Correia da Fonseca, Manh Hong Duong, Elias Fernandez Domingos, Antonio M. Fernandes, Marcus Krellner, Ndidi Bianca Ogbo, Simon T. Powers, Fernando P. Santos, Zia Ush Shamszaman, Zhao Song, Alessandro Di Stefano, The Anh Han

개요

본 논문은 진화 게임 이론(EGT) 프레임워크 내에 대규모 언어 모델(LLM) 에이전트를 통합하여 AI 개발 생태계 내 신뢰 및 협력 증진의 중요성을 조사합니다. AI 개발자, 규제 기관, 사용자 간의 전략적 선택을 다양한 규제 시나리오 하에서 모델링하여, 각 행위자가 직면하는 딜레마를 정량적으로 모델링합니다. LLM은 게임의 복잡성과 뉘앙스를 더하고 반복 게임 및 성격 특성 통합을 가능하게 합니다. 연구 결과, 전략적 AI 에이전트는 순수 게임 이론 에이전트보다 더 "비관적"(불신하고 결함이 있는) 태도를 취하는 경향이 있음을 보여줍니다. 사용자의 완전한 신뢰의 경우, 인센티브는 효과적인 규제를 촉진하는 데 효과적이지만, 조건부 신뢰는 "사회적 계약"을 악화시킬 수 있습니다. 따라서 사용자의 신뢰와 규제 기관의 평판 사이의 선순환적인 피드백을 구축하는 것이 개발자들이 안전한 AI를 만드는 데 중요한 것으로 나타났습니다. 그러나 이러한 신뢰가 나타나는 수준은 테스트에 사용되는 특정 LLM에 따라 달라질 수 있습니다. 본 연구 결과는 AI 규제 시스템에 대한 지침을 제공하고, 규제 자체를 지원하는 데 LLM 에이전트가 사용되는 경우 전략적 LLM 에이전트의 결과를 예측하는 데 도움이 됩니다.

시사점, 한계점

시사점:
진화 게임 이론과 LLM을 결합하여 AI 개발 생태계 내 신뢰 및 협력에 대한 통찰력을 제공합니다.
사용자의 신뢰와 규제 기관의 평판 간의 선순환적 피드백의 중요성을 강조합니다.
AI 규제 시스템 설계 및 전략적 LLM 에이전트의 결과 예측에 대한 지침을 제공합니다.
전략적 AI 에이전트의 비관적인 경향을 밝혀냄으로써 AI 개발 및 규제에 대한 새로운 이해를 제공합니다.
한계점:
사용된 특정 LLM에 따라 결과가 달라질 수 있습니다.
모델의 복잡성으로 인해 결과 해석에 어려움이 있을 수 있습니다.
실제 세계의 복잡성을 완전히 반영하지 못할 수 있습니다.
특정 LLM에 대한 의존성으로 일반화 가능성에 제한이 있을 수 있습니다.
👍