본 논문은 강력하지만 불투명한 대규모 언어 모델(LLM)의 발전으로 인해 인공 도덕 에이전트(AMA)를 평가하는 데 사용되는 철학적 기준을 근본적으로 수정해야 할 필요성을 주장합니다. 기존의 LLM 이전 프레임워크는 투명한 아키텍처라는 가정에 의존했지만, LLM은 확률적 출력과 불투명한 내부 상태로 인해 이러한 가정을 따르지 않습니다. 따라서 이 논문은 이러한 불일치로 인해 기존의 윤리적 기준이 LLM에 대해 실용적으로 쓸모없다고 주장합니다. 기술 철학의 핵심 주제를 다루면서, LLM 기반 인공 도덕 에이전트를 평가하기 위한 10가지 기능적 기준(도덕적 일치성, 맥락 민감성, 규범적 무결성, 형이상학적 인식, 시스템 복원력, 신뢰성, 수정 가능성, 부분적 투명성, 기능적 자율성, 도덕적 상상력)을 제시합니다. "SMA-LLS"(대규모 언어 시스템을 통한 도덕적 행위자 시뮬레이션)에 적용되는 이러한 지침은 향후 몇 년 동안 AMA를 더 큰 정렬과 유익한 사회 통합으로 이끌고자 합니다. 자율 주행 버스(APB)를 포함하는 가상 시나리오를 사용하여 도덕적으로 중요한 맥락에서 이러한 기준의 실용적인 적용 가능성을 보여줍니다.