Dans cet article, nous proposons un cadre d'apprentissage par renforcement basé sur le retour d'information humain implicite (RLIHF) utilisant l'électroencéphalographie (EEG) pour surmonter les limites de l'apprentissage par renforcement (RL) conventionnel, qui peine à apprendre des politiques efficaces dans des environnements à récompenses rares. Nous utilisons les potentiels liés à l'erreur (ErrP) pour fournir un retour d'information implicite continu sans intervention explicite de l'utilisateur, et transformons les signaux EEG bruts en composantes de récompense probabilistes via un décodeur pré-entraîné afin de permettre un apprentissage efficace des politiques, même dans des environnements à récompenses externes rares. Nous évaluons la méthode proposée sur des tâches d'évitement d'obstacles et de manipulation d'objets à l'aide d'un bras robotique Kinova Gen2 dans un environnement de simulation basé sur le moteur physique MuJoCo. Nous montrons que l'agent entraîné avec le retour d'information EEG décodé atteint des performances comparables à l'agent entraîné avec des récompenses denses conçues manuellement. Cela démontre le potentiel de l'exploitation du retour d'information neuronal implicite pour un apprentissage par renforcement évolutif et centré sur l'humain en robotique interactive.