Cet article présente les tendances récentes de la recherche dans l'application des modèles linguistiques à grande échelle (MLH) à la recommandation séquentielle. Les méthodes existantes basées sur les MLH ne parviennent pas à exploiter pleinement la richesse des informations temporelles inhérentes aux séquences d'interaction passées d'un utilisateur. En effet, le mécanisme d'auto-attention des MLH manque intrinsèquement d'informations séquentielles et repose sur des inclusions positionnelles, moins adaptées aux séquences d'interaction utilisateur que le langage naturel. Pour pallier ces limitations, nous proposons un cadre temporel contrefactuel amélioré pour la recommandation basée sur les MLH (CETRec) , qui sépare et mesure l'influence des informations temporelles selon des principes d'inférence causale . Le CETRec améliore efficacement la compréhension des MLH de l'ordre absolu (temps d'interaction avec les éléments) et de l'ordre relatif (relations séquentielles entre les éléments) en utilisant des ajustements contrefactuels issus de l'analyse causale. Nous démontrons l'efficacité du CETRec par des expériences approfondies sur des ensembles de données réels.