Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

AI and Human Oversight: A Risk-Based Framework for Alignment

Created by
  • Haebom

저자

Laxmiraju Kandikatla, Branislav Radeljic

개요

인공지능 기술 발전과 함께 인간 자율성 보호 및 윤리적 의사 결정을 촉진하는 것이 중요하며, AI 시스템은 인간의 자율성을 적극적으로 보존하고 강화해야 함을 강조합니다. 본 논문은 기본 권리를 옹호하고, 인간의 자율성을 강화하며, 효과적인 인간 감독 메커니즘을 내장하는 AI 시스템 설계 전략을 검토합니다. Human-in-Command (HIC), Human-in-the-Loop (HITL), Human-on-the-Loop (HOTL)과 같은 주요 감독 모델을 논의하고, 이러한 메커니즘 구현을 안내하기 위한 위험 기반 프레임워크를 제안합니다. AI 모델 위험 수준과 적절한 형태의 인간 감독을 연결함으로써, 기술 혁신과 개인의 가치 및 권리 보호 사이의 균형을 맞추며, AI의 책임감 있는 배포에 있어 인간의 중요한 역할을 강조합니다.

시사점, 한계점

AI 시스템의 책임감 있는 개발 및 사용을 위한 인간 중심 접근 방식 제시.
Human-in-Command (HIC), Human-in-the-Loop (HITL), Human-on-the-Loop (HOTL) 등 다양한 인간 감독 모델 제시.
AI 모델 위험 수준에 따른 적절한 인간 감독 형태를 결정하는 위험 기반 프레임워크 제안.
인간 자율성 보호와 사회적 이익 극대화를 목표로 함.
구체적인 AI 시스템 설계 및 구현에 대한 상세한 지침 부족.
제안된 위험 기반 프레임워크의 실질적인 효과에 대한 검증 부족.
다양한 AI 시스템 유형 및 사용 사례에 대한 적용 가능성 추가 연구 필요.
👍