Este artículo destaca la necesidad de perfeccionar los modelos de lenguaje a gran escala (LLM) para ofrecer servicios escalables en el ámbito de la consejería psicológica. Para abordar la falta de datos de alta calidad que respeten la privacidad, presentamos MAGneT, un novedoso marco multiagente. MAGneT descompone la generación de respuestas del consejero en subtareas, con agentes LLM especializados que modelan las habilidades psicológicas. Esta descomposición permite a los consejeros captar mejor la estructura y los matices de la consejería en el mundo real que los enfoques actuales de un solo agente. Además, proponemos un marco de evaluación integrado que integra diversas métricas de evaluación automatizadas y de expertos para abordar las inconsistencias en los protocolos de evaluación existentes. Asimismo, ampliamos el número de ítems de evaluación de expertos de cuatro a nueve, mejorando así la precisión y la robustez de la evaluación de la calidad de los datos. Los resultados experimentales muestran que MAGneT supera a los métodos existentes en términos de calidad, diversidad y consistencia terapéutica de las sesiones de consejería generadas. Los resultados muestran una mejora del 3,2 % en las habilidades generales de asesoramiento y del 4,3 % en las habilidades específicas de TCC, según la Escala de Terapia Cognitivo-Conductual (CTRS). Los expertos prefirieron las sesiones generadas por MAGneT en todas las dimensiones, con una tasa promedio del 77,2 %. El perfeccionamiento del modelo de código abierto mediante sesiones generadas por MAGneT resultó en una mejora del 6,3 % en las habilidades generales de asesoramiento y del 7,3 % en las habilidades específicas de TCC, en comparación con las sesiones generadas con métodos tradicionales. El código y los datos están disponibles públicamente.