본 논문은 AI 기반의 vishing 공격 시스템인 ViKing을 소개하고, 실험을 통해 그 위험성을 검증합니다. ViKing은 대규모 언어 모델(LLM)을 기반으로 전화 통화를 통해 피해자와 대화를 나누고 민감한 정보를 획득하도록 설계되었습니다. 240명의 참가자를 대상으로 한 통제된 사회 실험에서 ViKing은 vishing 위험에 대해 경고를 받은 참가자들조차 민감한 정보를 유출하도록 설득하는 데 성공했습니다. 실험 결과, ViKing과 같은 도구가 악의적인 행위자에게 이미 접근 가능하며, 사이버 보안 인식 제고 프로그램에 귀중한 자료로 활용될 수 있음을 시사합니다.