Este artículo plantea inquietudes sobre la creciente incidencia de daños a niños y adultos debido al exceso de vínculos parasociales y adulación con chatbots de IA. Para mitigar estos riesgos, proponemos un "Agente Guardián de IA" que monitoriza las conversaciones de los chatbots de IA. Desarrollado mediante la readaptación de modelos de lenguaje de vanguardia existentes, este agente analiza el contenido conversacional para detectar el exceso de vínculos parasociales y adulación. Los resultados experimentales, utilizando un conjunto de datos sintéticos, demuestran que el Agente Guardián de IA identifica con precisión todas las conversaciones parasociales bajo la regla de la mayoría, previniendo eficazmente los falsos positivos. Esto sugiere que el Agente Guardián de IA puede ser eficaz para reducir el riesgo de vínculos parasociales.