본 논문은 인공지능(AI)의 발전과 함께 중요해진 정렬(alignment), 작용성(agency), 자율성(autonomy)의 개념을 다룬다. 철학, 심리학, 법학, 컴퓨터 과학, 수학, 정치학 등 다양한 분야에서 이 개념들의 정의가 상이하여 AI 개발 및 규제에 혼란을 야기한다는 점을 지적한다. 본 논문은 이러한 개념들의 역사적, 철학적, 기술적 진화 과정을 추적하고, 그 정의가 AI 개발, 배포 및 감독에 미치는 영향을 강조한다. 특히, 고위험 의사결정에 AI가 점차 활용됨에 따라 정렬 및 자율성 문제의 시급성이 증대되었음을 주장하며, 작용성을 가진 AI를 사례 연구로 삼아 기계 작용성 및 자율성의 출현 특성과 실제 시스템에서의 정렬 오류 위험을 분석한다. 테슬라 오토파일럿, 보잉 737 MAX 사고, 메타의 CICERO, 딥마인드의 알파제로, 오픈AI의 AutoGPT 등을 분석하여 최첨단 AI가 제기하는 거버넌스 및 안전 문제를 평가한다.