Cet article soutient que malgré les avancées récentes dans les modèles linguistiques génératifs et à grande échelle, il existe une lacune importante dans la capacité des systèmes d'IA à gérer l'incertitude et à généraliser au-delà de leurs données d'entraînement. Les approches d'apprentissage automatique existantes peinent à résoudre ce problème en se concentrant trop sur l'ajustement des données, et les approches actuelles de quantification de l'incertitude présentent de sérieuses limites. Cet article propose donc un changement de paradigme vers l'IA épistémique, soulignant la nécessité pour les modèles d'apprendre de ce qu'ils savent tout en étant conscients de ce qu'ils ignorent, en utilisant les mathématiques des mesures d'incertitude du second ordre. Cette approche, qui exploite le pouvoir expressif de ces mesures pour gérer efficacement l'incertitude, améliore la résilience et la robustesse des systèmes d'IA, les rendant ainsi plus aptes à gérer des environnements réels imprévisibles.