Este artículo presenta un nuevo marco para generar eficazmente escenarios poco comunes, pero importantes, para la evaluación de sistemas de conducción autónoma. Los modelos basados en datos existentes presentan problemas como la necesidad de grandes cantidades de datos de entrenamiento, la dificultad de un control preciso y la baja validez de la evaluación debido a las diferencias de distribución con los datos existentes al generar nuevos escenarios. En este artículo, proponemos un marco de agentes basado en LLM que amplía escenarios de tráfico real mediante explicaciones en lenguaje natural. Mediante el diseño basado en agentes, mantenemos un control preciso y un alto rendimiento incluso con LLM pequeños, y permitimos la ampliación de escenarios a nivel experto.