Zoe Porter, Philippa Ryan, Phillip Morgan, Joanna Al-Qaddoumi, Bernard Twomey, Paul Noordhof, John McDermid, Ibrahim Habli
개요
본 논문은 AI 시스템의 결과물과 영향에 대한 책임 소재를 명확히 규명해야 할 필요성을 강조하며, 이를 위해 책임의 개념을 명확히 정의하고 시각적으로 표현하는 틀을 제시한다. '행위자 A가 사건 O에 대해 책임이 있다'는 세 가지 요소로 구성된 책임 개념을 분석하여 책임 소재, 책임의 의미, 책임 대상의 다양한 가능성을 밝히고, 이를 그래픽 표기법과 일반적인 방법론을 통해 시각화한다. 이를 통해 다양한 배경을 가진 이해관계자들이 AI 관련 복잡한 책임 문제를 토론하고 해결하는 기반을 제공하고자 한다. 무인 AI 선박과 유인 선박의 충돌 사례를 통해 제시된 틀의 적용을 보여준다.
시사점, 한계점
•
시사점: AI 시스템의 책임 문제를 체계적으로 분석하고 시각화하는 틀을 제공하여 이해관계자 간의 효과적인 소통과 책임 규명을 지원한다. 다양한 책임 관계를 명확히 구분하고 분석하는 데 도움을 준다. AI 관련 정책 및 기술 개발에 중요한 시사점을 제공한다.
•
한계점: 제시된 틀의 실제 적용 가능성 및 효용성에 대한 추가적인 검증이 필요하다. 복잡한 AI 시스템의 모든 책임 관계를 완벽하게 포착하는 데 한계가 있을 수 있다. 법적, 윤리적 측면에 대한 심층적인 논의가 부족하다. 가상 사례 연구를 넘어 실제 사례에 대한 적용 및 검증이 필요하다.