Cet article présente un cadre polyvalent et sans ressources pour la détection des hallucinations dans les modèles de langage à grande échelle (MLH). Il exploite diverses techniques de quantification de l'incertitude (QI), notamment la QI en boîte noire, la QI en boîte blanche et la QI en tant que juge, en les convertissant en scores de confiance standardisés au niveau des réponses, compris entre 0 et 1. Une approche d'ensemble ajustable combinant plusieurs scores de confiance individuels est proposée, permettant une optimisation pour des cas d'utilisation spécifiques. La boîte à outils Python UQLM simplifie la mise en œuvre, et des expérimentations sur plusieurs benchmarks de questions-réponses LLM démontrent que l'approche d'ensemble surpasse à la fois les composants individuels et les méthodes existantes de détection des hallucinations.