Si bien los sistemas multiagente basados en el Modelo de Lenguaje Grande (LLM) (LLM-MAS) destacan en la resolución de problemas colaborativos, también plantean nuevos riesgos de seguridad. Este artículo estudia sistemáticamente los ataques de ocultación de intenciones en LLM-MAS, diseñando cuatro paradigmas de ataque representativos y evaluándolos en arquitecturas de comunicación centralizadas, distribuidas y jerárquicas. Los resultados experimentales demuestran que estos ataques son destructivos y pueden evadir fácilmente los mecanismos de defensa existentes. Para abordar esto, proponemos AgentXposed, un marco de detección basado en la psicología. AgentXposed aprovecha el modelo de personalidad HEXACO y las técnicas de interrogación Reid para identificar proactivamente la intención de los agentes maliciosos. Los resultados experimentales en seis conjuntos de datos demuestran que AgentXposed detecta eficazmente diversas formas de comportamiento malicioso y demuestra robustez en diversos entornos de comunicación.