Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Responsible AI Technical Report

Created by
  • Haebom

저자

KT, :, Soonmin Bae, Wanjin Park, Jeongyeop Kim, Yunjin Park, Jungwon Yoon, Junhyung Moon, Myunggyo Oh, Wonhyuk Lee, Dongyoung Jung, Minwook Ju, Eunmi Kim, Sujin Kim, Youngchol Kim, Somin Lee, Wonyoung Lee, Minsung Noh, Hyoungjun Park, Eunyoung Shin

개요

KT는 AI 서비스의 안전성과 신뢰성을 보장하기 위해 책임있는 AI(RAI) 평가 방법론 및 위험 완화 기술을 개발했다. AI 기본법 시행 및 글로벌 AI 거버넌스 동향을 분석하여 규제 준수를 위한 고유한 접근 방식을 수립하고, AI 개발부터 운영까지 모든 잠재적 위험 요소를 체계적으로 식별하고 관리한다. 국내 환경에 맞춰 KT의 AI 위험 분류 체계를 기반으로 모델의 안전성과 견고성을 체계적으로 검증하는 신뢰할 수 있는 평가 방법론을 제시하며, 식별된 AI 위험을 관리하고 완화하기 위한 실용적인 도구를 제공한다. 또한, AI 모델의 유해한 응답을 실시간으로 차단하는 자체 기술 SafetyGuard (Guardrail)를 공개하여 국내 AI 개발 생태계의 안전성 향상을 지원한다. 본 연구 결과는 책임 있는 AI를 개발하려는 조직에 유용한 통찰력을 제공할 것으로 기대된다.

시사점, 한계점

시사점:
AI 서비스의 안전성과 신뢰성 확보를 위한 체계적인 RAI 평가 방법론 제시
국내 환경에 적합한 AI 위험 분류 체계 구축
AI 위험 관리 및 완화를 위한 실용적인 도구 제공
유해 응답 차단을 위한 자체 기술 SafetyGuard 개발 및 공개
책임 있는 AI 개발을 위한 조직에 유용한 통찰력 제공
한계점:
논문에서 구체적인 한계점에 대한 언급은 없음 (Abstract 내용 기준)
👍