Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Mapping Industry Practices to the EU AI Act's GPAI Code of Practice Safety and Security Measures

Created by
  • Haebom

저자

Lily Stelling, Mick Yang, Rokas Gipi\v{s}kis, Leon Staufer, Ze Shen Chin, Simeon Campos, Ariel Gil, Michael Chen

개요

본 논문은 EU AI 법안의 범용 AI(GPAI) 행동 강령(세 번째 초안)에서 제안된 안전 및 보안 조치와 주요 AI 기업들이 자발적으로 채택한 현재의 약속 및 관행 간의 상세한 비교를 제공합니다. EU가 GPAI 모델 제공자에 대한 구속력 있는 의무를 시행하는 방향으로 나아감에 따라, 행동 강령은 법적 요구 사항과 구체적인 기술적 약속 간의 가교 역할을 하는 데 중요합니다. 이 분석은 초안의 안전 및 보안 섹션(약속 II.1-II.16)에 초점을 맞추고, 각 조치와 관련된 현재 공개 문서의 발췌문을 기록합니다. OpenAI, Anthropic, Google DeepMind, Microsoft, Meta, Amazon 등 12개 이상의 기업의 최첨단 안전 프레임워크 및 모델 카드와 같은 다양한 문서 유형을 체계적으로 검토했습니다. 본 보고서는 법적 준수 여부를 나타내는 것이 아니며, 행동 강령이나 기업 정책에 대해 어떤 규범적인 관점도 취하지 않습니다. 대신, 산업계의 다양한 조치에 대한 선례를 제시함으로써 규제 기관과 범용 AI 모델 제공자 간의 지속적인 대화를 촉진하는 것을 목표로 합니다. 그럼에도 불구하고, 약속 II.1-II.16의 대부분 조치에 대해 적어도 5개 기업의 문서에서 관련 인용문을 찾을 수 있었습니다.

시사점, 한계점

시사점: EU AI 법안의 GPAI 행동 강령에 제시된 안전 및 보안 조치에 대한 산업계의 현황을 파악하고, 규제와 산업계 간의 대화를 촉진하는 데 기여합니다. 주요 AI 기업들의 자발적인 노력과 법적 요구사항 간의 비교를 통해 향후 규제 방향 설정에 유용한 정보를 제공합니다. 다수의 기업 문서에서 관련 내용을 발견하여 행동 강령의 실현 가능성을 엿볼 수 있습니다.
한계점: 법적 준수 여부에 대한 판단을 하지 않으며, 행동 강령이나 기업 정책에 대한 규범적 관점을 제시하지 않습니다. 분석 대상 기업이 특정 기업으로 한정되어 전체 산업의 현황을 완벽하게 반영하지 못할 수 있습니다. 공개적으로 접근 가능한 문서에만 의존하여 분석하였으므로, 비공개 정보는 고려되지 않았습니다.
👍