Pour surmonter les limites de l'apprentissage en contexte (ICL) dans les environnements d'apprentissage par renforcement (RL), cet article propose le Transformateur de Décision Augmenté par Récupération (RA-DT), qui utilise un mécanisme de mémoire pour récupérer uniquement les chemins partiels pertinents pour le contexte actuel à partir d'expériences passées. RA-DT utilise un composant de recherche indépendant du domaine qui ne nécessite aucun apprentissage et surpasse les méthodes existantes dans les environnements de grille, les simulations robotiques et les jeux vidéo générés procéduralement. Il atteint notamment des performances élevées même avec des longueurs de contexte courtes. Cet article identifie les limites des méthodes ICL existantes dans les environnements complexes, suggère des pistes de recherche futures et présente des jeux de données pour les quatre environnements dans lesquels il a été utilisé.