AI 기업들, 인간 수준 지능 개발 목표에도 안전 대책은 'D학점'...
주요 AI 안전 단체가 충격적인 평가를 내놨습니다. AI 기업들이 인간 수준의 지능을 만들 준비가 "근본적으로 부족하다"는 건데요. 미래생명연구소(FLI)는 주요 AI 기업 7곳의 '실존적 안전 계획' 점수가 모두 D학점을 넘지 못했다고 밝혔습니다. 구글 딥마인드, 오픈AI, 앤스로픽 등이 평가 대상이었죠. 이들은 10년 내 인공일반지능(AGI) 개발을 목표로 하고 있습니다. 하지만 평가단은 "일관되고 실행 가능한 안전 계획이 전무하다"고 지적했는데요. 전체 안전 점수는 앤스로픽이 C+로 가장 높았다고. FLI 공동창립자 맥스 테그마크 교수는 충격적인 비유를 들었습니다. "뉴욕에 거대한 핵발전소를 짓는데 멜트다운 방지 계획이 없는 것과 같다"는 거죠. 그는 AI 발전 속도가 예상을 뛰어넘고 있다며, 기업들이 AGI 개발까지 "몇 년밖에 안 남았다"고 주장하는 상황을 우려했습니다. 구글 딥마인드는 "보고서가 모든 안전 노력을 반영하지 못했다"고 반박했습니다. 하지만 또 다른 안전 단체인 SaferAI도 같은 날 "AI 기업들의 위험 관리가 매우 취약하다"고 경고했죠. 전문가들은 초지능 AI가 인간 통제를 벗어날 위험성을 계속 제기하고 있네요.
- 팀제이커브팀