Este artículo presenta un marco versátil y sin recursos para la detección de alucinaciones en modelos lingüísticos a gran escala (LLM). Aprovecha diversas técnicas de cuantificación de la incertidumbre (CU), como la CU de caja negra, la CU de caja blanca y el LLM como juez, convirtiéndolas en puntuaciones de confianza estandarizadas a nivel de respuesta, que van de 0 a 1. Se propone un enfoque de conjunto ajustable que combina múltiples puntuaciones de confianza individuales, lo que permite la optimización para casos de uso específicos. El kit de herramientas de Python UQLM simplifica la implementación, y los experimentos con varios puntos de referencia de preguntas y respuestas de LLM demuestran que el enfoque de conjunto supera tanto a los componentes individuales como a los métodos existentes de detección de alucinaciones.