Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI

Created by
  • Haebom
Category
Empty

저자

Shayne Longpre, Kevin Klyman, Ruth E. Appel, Sayash Kapoor, Rishi Bommasani, Michelle Sahar, Sean McGregor, Avijit Ghosh, Borhane Blili-Hamelin, Nathan Butters, Alondra Nelson, Amit Elazari, Andrew Sellars, Casey John Ellis, Dane Sherrets, Dawn Song, Harley Geiger, Ilona Cohen, Lauren McIlvenny, Madhulika Srikumar, Mark M. Jaycox, Markus Anderljung, Nadine Farid Johnson, Nicholas Carlini, Nicolas Miailhe, Nik Marda, Peter Henderson, Rebecca S. Portnoff, Rebecca Weiss, Victoria Westerhoff, Yacine Jernite, Rumman Chowdhury, Percy Liang, Arvind Narayanan

개요

본 논문은 범용 인공지능(GPAI) 시스템의 광범위한 배포로 인해 발생하는 새로운 위험을 다룬다. 소프트웨어 보안과 같은 기존 분야에 비해 GPAI 시스템의 결함 보고를 위한 인프라, 관행 및 규범이 심각하게 미흡한 현실을 지적하며, 소프트웨어 보안, 기계 학습, 법률, 사회과학 및 정책 분야 전문가들의 협업을 바탕으로 GPAI 시스템의 결함 평가 및 보고에 대한 주요한 허점들을 확인한다. 시스템 안전을 향상시키기 위한 세 가지 개입을 제안하는데, 표준화된 AI 결함 보고서와 연구자를 위한 행동 규칙을 사용하여 GPAI 시스템의 결함 제출, 재현 및 분류 과정을 용이하게 하는 것, GPAI 시스템 제공업체가 버그 바운티를 활용한 광범위한 결함 공개 프로그램을 채택하고 연구자를 보호하기 위한 법적 안전 장치를 마련하는 것, 그리고 많은 이해 관계자 간의 결함 보고 배포를 조율하기 위한 인프라 개선을 추진하는 것이다. 다양한 제공업체의 GPAI 시스템 간에 전파될 수 있는 탈옥 및 기타 결함의 만연성을 고려할 때 이러한 개입은 점점 더 시급해지고 있다. 이러한 제안은 AI 생태계에서 강력한 보고 및 조정을 촉진함으로써 GPAI 시스템의 안전성, 보안 및 책임성을 크게 향상시킬 수 있다.

시사점, 한계점

시사점:
GPAI 시스템의 안전성 향상을 위한 표준화된 결함 보고 시스템 및 행동 규칙의 필요성 제시.
버그 바운티와 같은 인센티브 프로그램을 통한 GPAI 시스템 결함 공개의 중요성 강조.
다양한 이해관계자 간의 효과적인 결함 정보 공유를 위한 인프라 구축 필요성 제기.
GPAI 시스템의 안전성, 보안성 및 책임성 향상에 기여할 수 있는 정책적 제안 제시.
한계점:
제안된 개입의 실제 효과 및 구현 가능성에 대한 추가적인 연구 필요.
다양한 이해관계자 간의 협력 및 조정의 어려움.
GPAI 시스템의 복잡성 및 다양성으로 인한 표준화의 어려움.
법적, 윤리적 문제에 대한 충분한 고려가 필요.
👍