Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Do AI Companies Make Good on Voluntary Commitments to the White House?

Created by
  • Haebom

저자

Jennifer Wang, Kayla Huang, Kevin Klyman, Rishi Bommasani

개요

본 논문은 백악관을 포함한 G7, 블레치리 파크, 서울 등에서 발표된 자발적 AI 거버넌스 가이드라인을 바탕으로, 주요 AI 기업들의 자발적 약속 이행 여부를 평가한 연구입니다. 2023년 백악관의 8가지 자발적 약속을 기준으로 세부적인 평가 척도를 개발하여 기업들의 공개된 행동을 점수화했습니다. 그 결과, 기업 간 이행 수준의 상당한 차이를 발견하였습니다. 최고 점수를 받은 OpenAI는 83%를 기록한 반면, 평균 점수는 53%에 불과했습니다. 특히 모델 가중치 보안 약속에 대한 이행률은 평균 17%로 매우 저조했으며, 16개 기업 중 11개 기업이 0%를 기록했습니다. 이를 통해, 기업들이 공개적인 약속을 할 때 이행 방법을 적극적으로 공개하여 책임성을 확보하고, 이러한 공개 내용을 검증 가능하도록 하는 것이 향후 AI 거버넌스 이니셔티브에서 시정해야 할 명확한 구조적 결함임을 강조합니다. 마지막으로, 불명확한 약속, 복잡한 AI 공급망의 역할, 공공 투명성 문제를 해결하는 세 가지 정책 권고안을 제시합니다.

시사점, 한계점

시사점:
AI 기업들의 자발적 약속 이행 수준이 매우 저조하며, 특히 모델 가중치 보안에 대한 이행이 심각하게 부족함을 밝힘.
향후 AI 거버넌스 이니셔티브는 기업들의 약속 이행에 대한 투명성과 검증 가능성을 확보하는 데 초점을 맞춰야 함.
제시된 세 가지 정책 권고안은 전 세계 AI 거버넌스 이니셔티브에 적용될 수 있는 실질적인 정책 방향을 제시함.
한계점:
본 연구는 공개적으로 공개된 정보에만 의존하여 평가를 진행했으므로, 기업들의 실제 이행 수준을 완벽하게 반영하지 못할 수 있음.
평가 척도의 객관성과 신뢰성에 대한 추가적인 검토가 필요함.
복잡한 AI 공급망 전반의 투명성 확보 및 검증에 대한 구체적인 방안 제시가 부족함.
👍