Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

A proposal for an incident regime that tracks and counters threats to national security posed by AI systems

Created by
  • Haebom
Category
Empty

저자

Alejandro Ortega

개요

본 논문은 AI 시스템이 사이버 공격 등을 통해 국가 안보에 위협이 될 수 있다는 우려를 제기하며, 이에 대한 대응책으로 법적으로 의무화된 AI 사고 관리 체계를 제안한다. 핵심 내용은 AI 제공업체가 첨단 AI 시스템 배포 전에 '국가 안보 사례'를 만들어야 하고, 사고 발생 시 정부 기관에 통보하고 안전 절차를 개선해야 한다는 것이다. 민간 원자력, 항공, 생명과학 등 다른 '안보 중요' 분야의 사고 관리 체계와 유사성을 근거로 제안을 정당화하며, AI 사이버 사고 대응 시나리오를 통해 제안의 실현 가능성을 보여준다. 제안된 체계는 AI 사고 정의, 정부 기관 통보, 안전 절차 개선 등 세 단계로 구성된다.

시사점, 한계점

시사점: AI의 국가 안보 위협에 대한 현실적인 우려를 제기하고, 기존 안보 중요 분야의 사고 관리 체계를 바탕으로 한 구체적인 AI 사고 관리 체계를 제시함으로써 정책 수립에 실질적인 기여를 할 수 있다. AI 개발 및 배포 과정에서 국가 안보를 고려하는 프레임워크를 제공한다.
한계점: 제안된 체계의 구체적인 법적, 제도적 설계 및 실행 가능성에 대한 논의가 부족하다. '국가 안보 사례'의 구체적인 기준과 평가 방식에 대한 명확한 설명이 필요하다. AI 사고의 범위와 심각도를 판단하는 기준 및 정부 기관의 역할과 권한에 대한 자세한 논의가 부족하다. 다양한 이해관계자(AI 개발자, 정부, 시민 사회)의 의견을 충분히 반영하지 못했을 가능성이 있다. 미국 중심적인 관점에서 논의가 진행되어 다른 국가적 맥락에 대한 고려가 부족할 수 있다.
👍