Cet article étudie l'impact des techniques de quantification, qui permettent un déploiement efficace de modèles linguistiques à grande échelle (MLH) dans des environnements aux ressources limitées, sur la véracité des modèles. À l'aide d'un cadre d'évaluation appelé TruthfulnessEval, nous évaluons la véracité des LMH quantifiés selon trois dimensions : le raisonnement logique, le bon sens et la simulation de fausses représentations. En appliquant diverses techniques de quantification, allant de 4 bits à 2 bits, à plusieurs LMH open source, nous constatons que les modèles quantifiés conservent des représentations intrinsèquement véridiques, mais sont plus susceptibles de générer des résultats erronés sous des invites trompeuses. Nous avons testé 15 variantes d'invites « honnêtes », « neutres » et « trompeuses », démontrant que des invites « trompeuses » peuvent prendre le pas sur un comportement cohérent avec la vérité. De plus, l'inspection couche par couche et la visualisation ACP ont révélé que les modèles quantifiés génèrent des résultats erronés sous des invites « trompeuses » malgré une connaissance intrinsèque de la vérité. Ces résultats fournissent des informations pour les futures conceptions d’interventions d’alignement et de véracité tenant compte de la quantification.