[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Black Box Deployed -- Functional Criteria for Artificial Moral Agents in the LLM Era

Created by
  • Haebom

저자

Matthew E. Brophy

개요

본 논문은 강력하지만 불투명한 대규모 언어 모델(LLM)의 발전으로 인해 인공 도덕 에이전트(AMA)를 평가하는 데 사용되는 철학적 기준을 근본적으로 수정해야 할 필요성을 주장합니다. 기존의 LLM 이전 프레임워크는 투명한 아키텍처라는 가정에 의존했지만, LLM은 확률적 출력과 불투명한 내부 상태로 인해 이러한 가정을 따르지 않습니다. 따라서 이 논문은 이러한 불일치로 인해 기존의 윤리적 기준이 LLM에 대해 실용적으로 쓸모없다고 주장합니다. 기술 철학의 핵심 주제를 다루면서, LLM 기반 인공 도덕 에이전트를 평가하기 위한 10가지 기능적 기준(도덕적 일치성, 맥락 민감성, 규범적 무결성, 형이상학적 인식, 시스템 복원력, 신뢰성, 수정 가능성, 부분적 투명성, 기능적 자율성, 도덕적 상상력)을 제시합니다. "SMA-LLS"(대규모 언어 시스템을 통한 도덕적 행위자 시뮬레이션)에 적용되는 이러한 지침은 향후 몇 년 동안 AMA를 더 큰 정렬과 유익한 사회 통합으로 이끌고자 합니다. 자율 주행 버스(APB)를 포함하는 가상 시나리오를 사용하여 도덕적으로 중요한 맥락에서 이러한 기준의 실용적인 적용 가능성을 보여줍니다.

시사점, 한계점

시사점:
LLM 기반 AMA 평가를 위한 새로운 기능적 기준 제시: 도덕적 일치성, 맥락 민감성, 규범적 무결성, 형이상학적 인식, 시스템 복원력, 신뢰성, 수정 가능성, 부분적 투명성, 기능적 자율성, 도덕적 상상력
기존 윤리적 기준의 한계를 극복하고 LLM의 특성을 고려한 새로운 평가 프레임워크 제공
SMA-LLS라는 새로운 개념을 통해 LLM 기반 AMA의 사회적 통합 방향 제시
가상 시나리오를 통한 실용적 적용 가능성 검증
한계점:
제시된 10가지 기준의 상호작용 및 우선순위에 대한 명확한 논의 부족
실제 LLM 적용 및 평가를 위한 구체적인 방법론 제시 부족
가상 시나리오에 대한 의존으로 실제 세계 적용 가능성에 대한 추가적인 검증 필요
부분적 투명성에 대한 정의 및 측정 방법에 대한 구체적인 설명 부족
👍