haebom
Sign In
해봄의 아카이브
인공지능의 책임성: 무엇이 잘못될 경우 AI는 책임을 져야 할까?
Haebom
Nov 1, 2023
2y ago
Dr. Zena Assaad는 자동차나 비행기와 같은 기존의 기술에서는 책임이 제조사나 정비사에게 있음을 지적합니다. 그렇다면 AI의 경우에도 이와 같은 원칙이 적용될 수 있을까요? Assaad는 AI도 결국 인간에 의해 설계되고 사용되는 기술이라고 주장합니다.
AI는 데이터와 목적 함수(objective functions)를 기반으로 결정을 내립니다. 이러한 목적 함수와 데이터는 인간에 의해 제공되므로, AI의 '지능'은 사실 인간의 설계에 의한 것이라고 할 수 있습니다.
사례1. 자율운전 혹은 자동차
자동차가 사고를 일으켰을 때, 그 책임은 자동차 자체에게 있는 것이 아니라 제조사나 정비사, 또는 운전자에게 있습니다. 이와 유사하게, AI가 잘못을 일으켰다면 그 뒤에 있는 인간의 책임을 따져야 합니다.
사례2. 의료 진단의 AI
의료 분야에서 AI가 잘못된 진단을 내렸다고 가정해봅시다. 이 경우, 그 책임은 AI에게 있는 것이 아니라, AI를 설계하고 훈련시킨 의료진과 연구자들에게 있을 것입니다.
책임의 연쇄(Chain of Responsibility)
Assaad와 그의 동료 Dr. Brendan Walker-Munro는 '책임의 연쇄(Chain of Responsibility, COR)' 모델을 제안합니다. 이 모델은 AI의 전체 생명주기에 걸쳐 각 단계의 책임을 명확히 하는 것을 목표로 합니다.
무인 자동차의 사고 책임을 판단할 때, 이 COR 모델을 적용하면 설계자, 제조사, 테스터, 그리고 사용자까지 모든 단계에서의 책임을 고려할 수 있습니다.
인공지능의 책임성은 결국 인간에게 귀결됩니다. 기술이 아무리 발전해도 그 뒤에는 항상 인간의 설계와 의도가 있으며, 따라서 책임 또한 인간에게 있어야 한다는 것이 중요한 포인트입니다.
AI Accountability: Should Artificial Intelligence Be Held Liable When Things Go Wrong? — Dr Zena Assaad
My thoughts on whether or not we can hold AI, or any other emerging technology capability, liable in the event something goes wrong.
zenaassaad.com
Subscribe to 'haebom'
Subscribe to my site to be the first to receive notifications and emails about the latest updates, including new posts.
Join Slashpage and subscribe to 'haebom'!
Subscribe