Cet article analyse en profondeur la capacité de reconnaissance de la négation des modèles d'intégration textuelle universels de pointe. Des études antérieures ont montré que les modèles d'intégration textuelle contextuels tels que BERT, ELMO, RoBERTa et XLNet peinent à comprendre précisément la négation. Cependant, la capacité de reconnaissance de la négation des modèles d'intégration textuelle universels n'a pas été clairement établie en raison du biais des benchmarks d'évaluation. Dans cette étude, nous constatons que les modèles d'intégration textuelle universels de pointe ne parviennent pas à reconnaître la négation et ont tendance à interpréter les paires de textes niés comme sémantiquement similaires. Pour résoudre ce problème, nous proposons une méthode de repondération de l'intégration efficace en termes de données et de calcul, sans modifier les paramètres des modèles d'intégration textuelle. Cette méthode améliore la capacité de reconnaissance de la négation des modèles d'intégration textuelle pour les tâches de compréhension de la négation simples et complexes, ainsi que pour les intégrations textuelles universelles de grande dimension, spécifiques à une tâche et basées sur des modèles de langage à grande échelle.