Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

International Agreements on AI Safety: Review and Recommendations for a Conditional AI Safety Treaty

Created by
  • Haebom
Category
Empty

저자

Rebecca Scholefield, Samuel Martin, Otto Barten

개요

본 논문은 첨단범용인공지능(GPAI)의 악의적 사용이나 오작동으로 인한 인류 몰락 또는 멸종 가능성에 대한 우려를 다룬다. 이러한 위험을 해결하기 위한 국제적 AI 안전 협약 제안들이 증가하는 가운데, 본 논문은 2023년 이후 제안들을 검토하여 합의점과 불일치점을 파악하고, 관련 문헌을 바탕으로 실현 가능성을 평가한다. 특히 위험 역치, 규제, 국제 협약의 유형, 과학적 합의 구축, 표준화, 감사, 검증, 인센티브 부여 등 5가지 관련 과정에 초점을 맞춘다. 그리고 엄격한 감독이 필요한 컴퓨팅 역치를 설정하는 조약을 제안하며, 국제 AI 안전 연구소(AISI) 네트워크를 통한 모델 감사, 정보 보안 및 거버넌스 관행의 의무화, 용납할 수 없는 위험 발생 시 개발 중단 권한 부여 등을 포함한다. 본 논문의 접근 방식은 즉시 실행 가능한 조치와 지속적인 연구에 적응할 수 있는 유연한 구조를 결합한다.

시사점, 한계점

시사점:
첨단 GPAI의 위험성에 대한 국제적 공조 필요성을 강조한다.
컴퓨팅 역치 설정 및 국제 AI 안전 연구소 네트워크 구축을 통한 실질적인 안전 규제 방안을 제시한다.
즉시 실행 가능한 조치와 유연한 구조를 결합한 실용적인 접근 방식을 제시한다.
한계점:
제안된 조약의 구체적인 법적, 기술적 실행 방안에 대한 상세한 논의가 부족하다.
국제적인 합의 도출의 어려움과 각국의 이해관계 충돌에 대한 고려가 미흡하다.
급속한 기술 발전 속도에 대한 조약의 적응성에 대한 추가적인 검토가 필요하다.
AISI의 권한과 책임, 그리고 그 운영 방식에 대한 명확한 설명이 부족하다.
👍