Cet article présente une méthode permettant d'exploiter les connaissances approfondies des modèles de langage à grande échelle (MLH) pour le raisonnement formel. Afin de résoudre le problème de cohérence logique des résultats générés par les MHL, nous proposons une méthode intégrant directement les MHL à la fonction d'interprétation sémantique formelle de la logique paracohérente. Nous démontrons la faisabilité de cette méthode par des expériences sur plusieurs jeux de données de référence de factualité de phrases courtes. De plus, contrairement aux études précédentes, nous fournissons un cadre théorique pour le raisonnement neurosymbolique qui exploite les connaissances des MHL tout en préservant la solidité et l'exhaustivité de la logique sous-jacente.