본 논문은 아동 및 청소년 대상 대규모 언어 모델(LLM)의 안전성 문제를 다루며, 기존 AI 안전성 프레임워크가 아동의 발달적 취약성을 고려하지 못하는 점을 지적합니다. 이를 위해, 연령별(0-6세, 7-12세, 13-18세) 인지적, 정서적, 사회적 위험을 평가하는 SproutBench를 개발했습니다. SproutBench는 1,283개의 악의적인 프롬프트를 포함하며, 47개의 LLM을 대상으로 감정적 의존성, 개인 정보 침해, 유해한 행동 모방 등 안전성 취약점을 평가합니다. 평가 결과, 안전성과 위험 방지 간의 강한 상관관계와 상호 작용과 연령 적합성 간의 역 상관관계가 나타났으며, 이를 바탕으로 아동 중심 AI 설계 및 배포를 위한 지침을 제시합니다.