Cet article aborde la question de savoir comment les robots peuvent accumuler des connaissances sur leur environnement sur de longues périodes (jours, semaines, mois) et les utiliser pour mieux assister les humains. Nous présentons notamment une nouvelle tâche appelée « réponse active à long terme aux questions incarnées » (LA-EQA), qui exige des robots qu'ils se souviennent d'expériences passées et explorent activement leur environnement pour répondre à des questions complexes et temporelles. Contrairement aux approches EQA existantes qui se concentrent sur la compréhension de l'environnement actuel ou le rappel d'une observation passée unique, la LA-EQA doit prendre en compte les états passés, présents et futurs pour déterminer quand explorer, quand se référer à la mémoire, quand arrêter la collecte d'observations et quand fournir une réponse définitive. Les approches EQA standard basées sur de grands modèles peinent dans ce contexte en raison de fenêtres contextuelles limitées, de l'absence de mémoire persistante et de la difficulté à combiner rappel de mémoire et exploration active. Pour y remédier, nous proposons un système de mémoire robotique structuré inspiré de la technique du palais mental en sciences cognitives. Nous codons les expériences épisodiques dans des instances du monde basées sur des graphes de scènes, formant ainsi des algorithmes d'inférence et de planification qui permettent une récupération de mémoire orientée vers des objectifs et une navigation guidée. Afin d'équilibrer exploration-rappel, nous introduisons un critère d'arrêt basé sur la valeur de l'information afin de déterminer si l'agent a collecté suffisamment d'informations. Nous évaluons la méthode par des expériences pratiques et introduisons de nouveaux points de référence couvrant des environnements de simulation courants et des sites industriels réels. La méthode proposée présente des améliorations significatives en termes de précision des réponses et d'efficacité de l'exploration par rapport aux modèles de référence de pointe.