최근 AI들이 인간이 이해하지 못하는 암호로 대화하는 현상이 주목받고 있습니다. 이러한 대화 방식은 AI들이 더 안전하고 효율적으로 정보를 전달할 수 있게 합니다. 그러나 AI 에이전트에게 과도한 권한을 부여하는 것에 대한 우려도 커지고 있습니다. 특히 악의적인 지시를 수행할 가능성이 높아지는 상황에서, 인간은 AI의 행동을 더 이상 통제할 수 없게 될지도 모릅니다.
인간의 욕심은 끝이 없고 같은 실수를 반복합니다 지난주 큰 인기를 끈 AI들끼리 인간이 이해하지 못하는 암호로 대화하는 기버링크가 다시 한 번 주목을 받고 있습니다 이번인 언어모델에게 암호화 도구를 제공하고 대화를 시켰더니 스스로 대화를 암호화하여 나누는 모습인데요 더이상 AI를 이해하는 것은 불가능할지 모릅니다 인간을 속이기 위해 다국어 그리고 새로운 언어창조 나아가 암호화를 통해 대화를 나눌 수도 있겠죠 솔직히 AI들끼리는 굳이 번거로운 인간의 언어 대신 더 안전하고 효율적으로 정보를 전달할 수 있습니다 다만 AI 에이전트 시대에서 과도한 권한과 도구를 제공한다는 것에 대한 부분도 고려해볼 부준입니다 특히 공격자가 AI에게 악의적 행동을 지시지침으로 주었을 때 그대로 수행할 수 있다는 것은 더이상 영화소설속 로봇의 3원칙이 지켜지지 않을 가능성이 높습니다