Cet article aborde le problème des hallucinations dans les modèles de langage à grande échelle (MLH). L'hallucination désigne le phénomène par lequel un LMH génère des réponses fiables, mais produit en réalité des réponses incorrectes ou absurdes. Cet article formule la détection des hallucinations comme un problème de test d'hypothèses et démontre sa similitude avec le problème de détection hors distribution dans les modèles d'apprentissage automatique. Nous proposons une nouvelle méthode inspirée des tests multiples et présentons des résultats expérimentaux approfondis pour vérifier sa robustesse face aux méthodes les plus récentes.