Trong bài báo này, chúng tôi đề xuất một khuôn khổ học tăng cường dựa trên phản hồi của con người ngầm (RLIHF) sử dụng điện não đồ (EEG) để khắc phục những hạn chế của học tăng cường (RL) thông thường, vốn gặp khó khăn trong việc học các chính sách hiệu quả trong môi trường phần thưởng thưa thớt. Chúng tôi sử dụng các tiềm năng liên quan đến lỗi (ErrP) để cung cấp phản hồi ngầm liên tục mà không cần sự can thiệp rõ ràng của người dùng và chuyển đổi các tín hiệu EEG thô thành các thành phần phần thưởng xác suất thông qua bộ giải mã được đào tạo trước để cho phép học chính sách hiệu quả ngay cả trong môi trường phần thưởng bên ngoài thưa thớt. Chúng tôi đánh giá phương pháp được đề xuất về các nhiệm vụ tránh chướng ngại vật và thao tác đối tượng bằng cánh tay rô-bốt Kinova Gen2 trong môi trường mô phỏng dựa trên công cụ vật lý MuJoCo. Chúng tôi chứng minh rằng tác nhân được đào tạo với phản hồi EEG được giải mã đạt được hiệu suất tương đương với tác nhân được đào tạo với phần thưởng dày đặc được thiết kế thủ công. Điều này chứng minh tiềm năng của việc tận dụng phản hồi thần kinh ngầm cho việc học tăng cường có thể mở rộng và lấy con người làm trung tâm trong robot tương tác.