Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI

Created by
  • Haebom
Category
Empty

저자

Shayne Longpre, Kevin Klyman, Ruth E. Appel, Sayash Kapoor, Rishi Bommasani, Michelle Sahar, Sean McGregor, Avijit Ghosh, Borhane Blili-Hamelin, Nathan Butters, Alondra Nelson, Amit Elazari, Andrew Sellars, Casey John Ellis, Dane Sherrets, Dawn Song, Harley Geiger, Ilona Cohen, Lauren McIlvenny, Madhulika Srikumar, Mark M. Jaycox, Markus Anderljung, Nadine Farid Johnson, Nicholas Carlini, Nicolas Miailhe, Nik Marda, Peter Henderson, Rebecca S. Portnoff, Rebecca Weiss, Victoria Westerhoff, Yacine Jernite, Rumman Chowdhury, Percy Liang, Arvind Narayanan

개요

본 논문은 범용 인공지능(GPAI) 시스템의 광범위한 배포로 인해 발생하는 새로운 위험을 다룬다. 소프트웨어 보안과 같은 기존 분야와 비교하여 GPAI 시스템의 결함 보고를 위한 인프라, 관행 및 규범이 매우 미흡하다는 점을 지적한다. 소프트웨어 보안, 기계 학습, 법률, 사회과학 및 정책 분야 전문가들과의 협업을 바탕으로 GPAI 시스템 결함 평가 및 보고의 주요한 허점을 확인하고, 시스템 안전 향상을 위한 세 가지 개입 방안을 제시한다. 첫째, 표준화된 AI 결함 보고서와 연구자들을 위한 참여 규칙을 제안하여 GPAI 시스템의 결함 제출, 재현 및 분류 과정을 용이하게 한다. 둘째, 버그 바운티를 활용한 광범위한 결함 공개 프로그램을 GPAI 시스템 제공업체가 채택하고, 연구자를 보호하기 위한 법적 안전 장치를 마련할 것을 제안한다. 셋째, 많은 이해관계자에게 결함 보고서를 배포하기 위한 개선된 인프라 개발을 옹호한다. 다양한 제공업체의 GPAI 시스템 간에 전파될 수 있는 탈옥 및 기타 결함의 만연성을 고려할 때 이러한 개입은 점점 더 시급해지고 있다. AI 생태계에서 강력한 보고 및 조정을 촉진함으로써, 이러한 제안은 GPAI 시스템의 안전성, 보안 및 책임성을 크게 향상시킬 수 있다.

시사점, 한계점

시사점:
GPAI 시스템의 안전성 향상을 위한 표준화된 결함 보고 시스템 및 절차의 필요성 제시.
버그 바운티 프로그램 및 법적 안전 장치를 통한 책임 있는 결함 공개 방안 제안.
다양한 이해관계자 간의 효율적인 결함 정보 공유를 위한 인프라 구축의 중요성 강조.
GPAI 시스템의 안전성, 보안 및 책임성 향상에 기여할 수 있는 실질적인 해결책 제시.
한계점:
제안된 개입 방안의 구체적인 실행 계획 및 평가 방안 부재.
다양한 이해관계자 간의 합의 및 협력을 이끌어내는 데 어려움 발생 가능성.
GPAI 시스템의 복잡성 및 다양성으로 인한 표준화의 어려움.
법적 안전 장치의 구체적인 내용 및 효과에 대한 추가적인 연구 필요.
👍