[AI4] Artificial Intelligence Act (AI Act) 주요 내용
[Artificial Intelligence Act (AI Act): EU AI 규제법 주요 법령 내용] AI 1번 레터에서 Artificial Intelligence Act AI Act EU 규제법에 대한 내용을 다루었었죠. 본 레터 관련해서 'AI Act 규제법에 주요 내용들을 더 다루어 줄 수 있나요?'라는 피드백을 적극 수용하여, AI 관련 첫 법령 제정 건, AI Act의 주요 법령과 내용, 단계에 대해 예시를 통해 쉽게 이해할 수 있도록 정리해왔습니다. [AI Act 위험 수준 분류 단계] 전면 금지 단계(Unacceptable Risk AI Systems) AI Banned 단계입니다. AI를 위험하게 다루는 것으로 간주하여, 본 시스템 혹은 서비스를 전면 금지 하는 단계입니다. - 금지하는 대상 : 인간의 자유성, 존엄성을 헤치거나 민주주의, 정치적과 같은 기본 가치를 위협하는 AI 시스템. (example : AI를 이용하여 CCTV를 통해 사람의 행동을 감시하는 기술, AI 기반의 가짜 뉴스를 생성하여 여론을 조작하거나 진실을 헤치는 기술, 개인의 데이터를 이용해 심리적 취약점을 찾아 특정 견해나 의견을 강요하는 시스템 등) 전면 금지단계는 더 쉽게 말하면 AI를 이용해서, 기본 적으로 사람들이 지켜야 할 사회의 규율들을 무너뜨리는 행위들을 금지하는 행위를 법적으로 규제한다. 라고 이해하면 쉽겠죠? 고위험 단계(High-Risk) AI 단계 한국의 고영향 단계와 비슷한 맥락입니다. 고위험 단계의 시스템에서는 직접적으로 분야 언급이 있습니다. 생체 인식(Biometric Identification), 공공서비스(Essential Services), 교육 및 직업 분야(Education and Vocational Training), 고용,노동 관리(Employment and Labour Management), 법 집행(Law Enforcement) 사회적으로 중요한 산업 군에서 AI를 사용할 때 엄격한 규제가 있으며, 규제 내용을 준수해야 AI 시스템을 출시할 수 있는 산업 군을 말합니다. -규제 가이드 : (1) 위험 관리 시스템 도입 : AI 시스템이 개발, 배포, 그리고 사용되는 모든 과정에서 발생할 수 있는 위험(오류, 편향, 보안 위협 등)을 체계적으로 평가하는 절차와 도구가 있어야 함. (2) 데이터 거버넌스 체계 구축 : 데이터 거버넌스는 AI 시스템에서 사용하는 데이터의 품질, 안전성, 보안, 투명성을 관리하는 체계를 말합니다. (3) 관리자(사람) 설정 및 투명성 확보 : AI 시스템이 작동하는 동안 감독하고 판단할 수 있는 관리자를 설정하여 필요한 경우 감독할 수 있는 시스템이 구성되어야 하며, 투명성은 AI임을 필히 고지하고 그 과정과 근거를 명확하게 하여 밝힐 수 있어야 하는 시스템이 구축되어야 함을 말합니다. 고 위험 단계는 AI를 사용하는 산업 군 중 규제해야할 만한 산업 군이나, 규제의 가이드를 준수하여 AI의 시스템을 출시해야 함을 의미합니다. 제한된 위험 단계 (Limited Risk AI Systems) 제한된 위험 단계는 AI를 활용하여 위험하다고 분류하지는 않지만, 사용자가 AI임을 알 수 있는 권리가 포함되며, 사용자가 AI와 상호작용 한다는 사실을 명확히 인지시켜야 합니다. (example : 챗봇, AI 생성 플랫폼, AI 서포트 제품) -규제 가이드 : (AI 투명성) 사용자가 AI임을 인지하지 못하고 사용을 하면 AI 정보와 실제 정보간의 혼동이 일어날 수 있어 AI를 활용한 것을 고지하고 사용할 수 있도록 합니다. (신뢰성) AI가 작동하는 방식을 알려주어 사용자 신뢰성을 높일 수 있도록 인지하게 합니다. 최소 위험 단계의 AI 시스템 (Minimal Risk AI Systems) 최소한의 위험 단계는 대부분의 규제에 면제되며, 위험하다고 판단되지 않는 단계를 의미합니다. 본 단계의 AI 활용은 사람의 기본 적인 규율이나 법에 어긋나지 않는 AI 활용 시스템으로 판단합니다. 최소 위험 단계의 AI는 주로 개인적 또는 상업적 용도로 사용되며, 사회적 위험이 낮은 시스템으로 간주합니다. (example : 소프트웨어 AI 캐릭터, 이메일 필터링의 AI 기술, 일정관리 AI 등) 개발 됨에 있어 효율을 위한 AI가 들어가져 있거나 자동화 시스템에 활용된 AI, 즉 편리를 위해서 AI 시스템이 도입되어 효율성을 위한 시스템은 인간의 기본 규율과 안전과 권리에 중대한 영향을 미치지 않으며, 오작동 해도 결과가 경미한 부분이기 때문에 최소 위험 단계로 정의합니다. AI Act는 규제 최소화를 위해서 혁신과 개발이 위축되지 않도록 해야한다고 합니다. EU의 AI Act는 AI를 악용하며 인간의 기본권을 침해하는 단계에서 규제가 강화됩니다. 다만, 구체적으로 어떻게 분류할 것인지. 또한 어떻게 분류할 것인지가 구체화됨에 따라 상당 부분 내용이 정리될 수 있을 것 같습니다. AI Act는 시행 일정이 2024년 발효 이후, 1단계 규제는 6개월 후 즉시 시행되며, 2단계는 발효 후 24개월 이내로 적용됩니다. 이 기간 안에 주요 내용들이 구체화되어 발효되지 않을까 생각하고 있습니다. 전면 금지 단계는 6개월 이후에 시행됩니다. 그리고 발효후 36개월 이내 단계적으로 시행된다고 하네요. AI Act의 동향은 지속적으로 관찰하여 레터화 할 예정입니다. 개인적 의견(참고만 해주세요) AI Act와 AI 기본법, 굉장히 유사합니다. 그리고 단어의 내용들까지도 비슷한 걸 보아 AI Act를 상당 부분 참고 하지 않았나 생각이 듭니다. 대신 AI가 한국에 특화된 산업과 특징들이 분명 있을것으로 보여집니다. 한국의 AI 동향을 살펴보면서 AI 기본법도 동향에 맞추어, 무조건 다른 선행을 따라갈 것이 아니라 한국의 AI 산업을 확대시키며, 불법적이고 규율에 어긋난 부분만 규제할 수 있는 규정으로 맞춰나가야할 것으로 보여집니다.
- AI윤리
- 이현이
3
19