En este artículo, proponemos un marco de aprendizaje por refuerzo basado en retroalimentación humana implícita (RLIHF) mediante electroencefalografía (EEG) para superar las limitaciones del aprendizaje por refuerzo (RL) convencional, que presenta dificultades para aprender políticas efectivas en entornos con escasa recompensa. Utilizamos potenciales relacionados con errores (ErrP) para proporcionar retroalimentación implícita continua sin intervención explícita del usuario y transformamos las señales de EEG sin procesar en componentes de recompensa probabilística mediante un decodificador preentrenado para permitir un aprendizaje de políticas efectivo incluso en entornos con escasa recompensa externa. Evaluamos el método propuesto en tareas de evitación de obstáculos y manipulación de objetos utilizando un brazo robótico Kinova Gen2 en un entorno de simulación basado en el motor de física MuJoCo. Demostramos que el agente entrenado con retroalimentación de EEG decodificada logra un rendimiento comparable al del agente entrenado con recompensas densas diseñadas manualmente. Esto demuestra el potencial de aprovechar la retroalimentación neuronal implícita para un aprendizaje por refuerzo escalable y centrado en el ser humano en robótica interactiva.