본 논문은 대규모 언어 모델의 발전에 따라 EEG 신호를 텍스트로 디코딩하는 모델의 성능 향상을 목표로, 새로운 모델인 R1 Translator를 제안한다. R1 Translator는 양방향 LSTM 인코더와 사전 훈련된 Transformer 기반 디코더를 결합하여 EEG 특징을 활용, 고품질 텍스트 출력을 생성한다. LSTM은 EEG 임베딩의 순차적 의존성을 포착하고, Transformer 디코더는 효과적인 텍스트 생성을 담당한다. 실험 결과, R1 Translator는 기존 모델인 T5와 Brain Translator보다 ROUGE, CER, WER 지표에서 모두 우수한 성능을 보였다. 특히 ROUGE-1 score는 38.00% (P)로 T5 (34.89%)보다 9%, Brain (35.69%)보다 3% 높았다.