# Andrew Ng 교수가 말하는 인공지능의 실재하는 위험

개인적으로 Andrew Ng 교수와 Sam Altman은 각각 다른 방향으로 이 시장을 보고 있다고 생각 합니다. 앤드류 응 교수는 아래에서 위로 간다면 샘 알트먼은 위에서 아래로 가는 느낌이랄까요? 둘 모두 AGI를 지향하고 세계 전체의 변화를 꿈꾸지는 그 파도가 어디서 시작하는지를 다르게 보는 것 같습니다. 그 와중에 비즈니스 인사이더에서 엔드류 응 교수의 인터뷰가 기재 되어 공유 드립니다.

한 줄 요약 하면, **"이상한 규제 만들려고 하지 말고, 핵이니 전염병이니 지배당한다느니 하는 호들갑 떨지마라"** 정도로 말할 수 있겠습니다.

[Google Brain cofounder says Big Tech companies are lying about the risks of AI wiping out humanity because they want to dominate the market](https://www.businessinsider.com/andrew-ng-google-brain-big-tech-ai-risks-2023-10)

### AI 위험성 과장의 배경

기술 기업들은 AI의 위험성을 과장하여 엄격한 규제를 촉구하고 있습니다.

이러한 규제는 오픈 소스와 경쟁하는 것을 원하지 않는 기술 기업들에게 유리합니다.

### AI와 핵전쟁, 전염병의 비교

AI 전문가와 CEO들은 AI의 위험성을 핵전쟁이나 전염병과 같은 위험성과 비교하며 경고하고 있습니다.

이러한 주장은 규제를 촉구하는 데에 사용되고 있습니다.

### 규제의 부작용

Andrew Ng는 AI가 인류를 멸망시킬 수 있다는 주장이 과장되었다고 지적합니다.

이러한 과장된 주장은 혁신을 저해할 수 있는 라이선스 제도를 도입할 수 있습니다.

### 결론

Andrew Ng의 주장에 따르면, AI의 위험성에 대한 과장된 주장은 기술 기업들이 경쟁을 억제하고 규제를 촉구하는 전략의 일환이라고 할 수 있습니다. 따라서 AI의 위험성과 관련된 논의를 할 때는 다양한 관점을 고려하여 신중한 판단이 필요합니다.

For the site tree, see the [root Markdown](https://slashpage.com/haebom.md).
