Cet article propose RePPL, une nouvelle méthode pour résoudre le problème des hallucinations dans les modèles de langage à grande échelle (MLH). Les méthodes existantes de détection des hallucinations se concentrent sur la mesure de l'incertitude, mais ne parviennent pas à expliquer la cause des hallucinations. Pour surmonter cette limitation, nous calculons un score d'incertitude au niveau du jeton en prenant en compte à la fois l'incertitude survenant lors de la propagation sémantique et de la génération du langage. Ces scores sont ensuite agrégés sous forme de moyenne logarithmique de type perplexité pour produire un score global d'hallucinations. Notre méthode affiche d'excellentes performances, atteignant une AUC moyenne de 0,833 sur divers ensembles de données d'assurance qualité et modèles de pointe, démontrant l'utilité des scores d'incertitude au niveau du jeton pour expliquer la cause des hallucinations.