Este artículo analiza las tendencias de investigación recientes en la aplicación de modelos de lenguaje a gran escala (LLM) a la recomendación secuencial. Los métodos existentes basados en LLM no utilizan por completo la rica información temporal inherente a las secuencias de interacción pasadas de un usuario. Esto se debe a que el mecanismo de autoatención de LLM carece inherentemente de información de secuencia y se basa en incrustaciones posicionales, que son menos adecuadas para las secuencias de interacción del usuario que el lenguaje natural. Para abordar estas limitaciones, proponemos un Marco temporal mejorado contrafactual para la recomendación basada en LLM (CETRec) , que separa y mide la influencia de la información temporal basada en principios de inferencia causal . CETRec mejora eficazmente la comprensión de LLM tanto del orden absoluto (tiempos de interacción con los elementos) como del orden relativo (relaciones secuenciales entre los elementos) mediante el uso de ajustes contrafactuales derivados del análisis causal. Demostramos la eficacia de CETRec a través de experimentos extensos en conjuntos de datos del mundo real.