2001: 스페이스 오디세이 영화를 예시로, 인간의 이익에 반하는 결정을 내릴 수 있는 AI가 제기하는 문제점을 설명합니다. 인간의 결정 또한 인지 편향의 영향을 받으며, AI는 이러한 편향을 재현하고 악용하여 우리의 결정과 판단을 조작할 수 있습니다. AI 알고리즘 뒤에는 기본 권리에 무관심하고 자체 규칙을 부과하는 개인들이 있을 수 있습니다. AI와 관련된 윤리적, 사회적 문제 해결을 위해 디지털 플랫폼 규제와 교육이 중요함을 강조합니다. 규제는 윤리적, 법적, 정치적 선택을 반영해야 하며, 교육은 디지털 리터러시를 강화하고 디지털 기술에 직면했을 때 정보에 입각한 비판적 선택을 할 수 있도록 가르쳐야 합니다.