Cet article souligne la nécessité d'affiner les modèles de langage à grande échelle (MLH) afin de fournir des services évolutifs dans le domaine du conseil psychologique. Pour pallier le manque de données de haute qualité et respectueuses de la vie privée, nous présentons MAGneT, un nouveau cadre multi-agents. MAGneT décompose la génération des réponses des conseillers en sous-tâches, des agents LLM spécialisés modélisant les compétences psychologiques. Cette décomposition permet aux conseillers de mieux saisir la structure et les nuances du conseil en situation réelle que les approches mono-agent existantes. De plus, nous proposons un cadre d'évaluation intégré intégrant diverses mesures d'évaluation automatisées et expertes afin de corriger les incohérences des protocoles d'évaluation existants. De plus, nous augmentons le nombre d'éléments d'évaluation experte de quatre à neuf, améliorant ainsi la précision et la robustesse de l'évaluation de la qualité des données. Les résultats expérimentaux montrent que MAGneT surpasse les méthodes existantes en termes de qualité, de diversité et de cohérence thérapeutique des séances de conseil générées. Les résultats montrent une amélioration de 3,2 % des compétences générales en conseil et de 4,3 % des compétences spécifiques à la TCC, selon l'échelle de thérapie cognitivo-comportementale (CTRS). Les experts ont privilégié les séances générées par MAGneT sur tous les plans, avec un taux moyen de 77,2 %. L'optimisation du modèle open source à l'aide de séances générées par MAGneT a permis une amélioration de 6,3 % des compétences générales en conseil et de 7,3 % des compétences spécifiques à la TCC, par rapport aux séances générées par les méthodes traditionnelles. Le code et les données sont accessibles au public.