본 논문은 대규모 언어 모델(LLM)이 자녀의 삶에 빠르게 진입하고 있음에도 불구하고, 아동에게 특화된 콘텐츠 관련 위험을 충분히 다루지 못하고 있는 현 AI 윤리 및 안전 연구의 간극을 강조한다. 중학교 환경에 배포된 LLM 기반 챗봇의 실제 사례 연구를 통해 학생들이 시스템을 사용하고 오용하는 방식을 보여주고, 이를 바탕으로 아동을 위한 콘텐츠 기반 위험의 새로운 분류 체계를 제안한다. 또한, 아동으로부터 안전하지 않거나 부적절한 질의를 거부하는 LLM의 능력을 평가하기 위한 오픈소스 벤치마크인 MinorBench를 소개하고, 여러 개의 LLM을 평가하여 아동 안전 준수의 상당한 차이를 보여준다. 결과적으로, 보다 강력한 아동 중심 안전 메커니즘을 위한 실질적인 단계를 제시하고, 젊은 사용자를 보호하기 위해 AI 시스템을 조정해야 할 긴급성을 강조한다.