En este artículo, proponemos un novedoso marco de aprendizaje por refuerzo multiagente (MARL), el Coordinador Condicionado por Instrucción (ICCO), para la colaboración efectiva en sistemas multirrobot guiados por lenguaje mediante modelos lingüísticos a gran escala (LLM). ICCO consta de un agente coordinador y múltiples agentes locales. El coordinador integra estados del entorno y comandos lingüísticos para generar comandos consistentes y alineados con la tarea (TACI) que garantizan la alineación de la tarea y la consistencia de las acciones. El coordinador y los agentes locales se entrenan conjuntamente para optimizar una función de recompensa que equilibra la eficiencia de la tarea y el cumplimiento de los comandos. Se añade un término de mejora de la consistencia al objetivo de aprendizaje para optimizar aún más la colaboración, maximizando la información mutua entre los comandos y las acciones del robot. La efectividad de ICCO se verifica mediante simulaciones y experimentos reales.