Sign In

Artificial Intelligence in Government: Why People Feel They Lose Control

Created by
  • Haebom
Category
Empty

저자

Alexander Wuttke, Adrian Rauchfleisch, Andreas Jungherr

개요

본 논문은 공공 행정에서 인공지능(AI)의 확산에 따른 공정성, 투명성, 책임성 문제를 주요하게 다룹니다. AI 도입을 대리(delegation)의 특수한 사례로 간주하는 주인-대리인 이론(PAT)을 적용하여, 평가 가능성(assessability), 의존성(dependency), 이의 제기 가능성(contestability)의 세 가지 핵심 긴장 관계를 강조합니다. 초기 기능적 이점이 장기적인 민주적 정당성에 대한 위험을 가리고, "성공에 의한 실패" 역학을 초래할 수 있음을 지적합니다. 세금, 복지, 법 집행 분야를 대상으로 사전 등록된 요인 설계 설문 조사 실험을 수행하여, 효율성 증대가 초기에는 신뢰를 높이지만 동시에 시민의 통제력 인식을 감소시키는 것을 보여줍니다. 구조적 위험이 부각될 때 제도적 신뢰와 인지된 통제력이 모두 급격히 감소하여, AI 도입의 숨겨진 비용이 공공 태도를 크게 형성함을 시사합니다. 결론적으로 PAT는 정부 내 AI의 제도적, 정치적 함의를 이해하는 강력한 틀을 제공하며, 정책 입안자는 공공 신뢰를 유지하기 위해 대리 위험을 투명하게 해결해야 함을 강조합니다.

시사점, 한계점

시사점:
주인-대리인 이론(PAT)을 이용하여 AI 도입의 위험성과 공공 신뢰에 미치는 영향을 체계적으로 분석.
AI 도입의 효율성 증대가 단기적 신뢰 향상으로 이어지지만, 장기적으로는 통제력 감소 및 신뢰 저하를 야기할 수 있음을 실증적으로 밝힘.
공공 행정에서 AI 도입 시, 평가 가능성, 의존성, 이의 제기 가능성 등의 구조적 위험에 대한 고려가 필수적임을 강조.
정책 입안자는 AI 도입의 대리 위험을 투명하게 관리하고 시민들의 참여를 보장하는 방안을 마련해야 함을 제시.
한계점:
설문 조사 실험의 결과가 특정 국가 또는 문화적 맥락에 국한될 가능성.
AI 시스템의 구체적인 설계 및 구현 방식에 따른 차이점 고려 부족.
장기적인 AI 도입 효과에 대한 추적 관찰이 부족.
다양한 유형의 AI 시스템과 공공 서비스에 대한 일반화 가능성에 대한 추가 연구 필요.
👍