본 논문은 연속 학습에서의 순차 데이터 처리를 위한 점점 복잡해지는 훈련 방법론과 커지는 순환 신경망(RNN) 구조의 문제점을 해결하기 위해, GRU(Gated Recurrent Unit)를 단순화한 새로운 변형체인 MiRU(Minion Recurrent Unit)를 제안합니다. MiRU는 기존의 게이팅 메커니즘을 스케일링 계수로 대체하여 은닉 상태와 과거 맥락의 동적 업데이트를 조절함으로써 계산 비용과 메모리 요구사항을 줄입니다. 순차 이미지 분류 및 자연어 처리 벤치마크 평가를 통해 MiRU는 표준 GRU와 비교하여 성능 저하 없이 2.90배 빠른 훈련 속도와 2.88배 적은 파라미터 사용량을 달성함을 보여줍니다. 또한, 연습 기반 전략과 전역 억제를 사용한 연속 학습 작업을 수행하여 모델 단순화가 학습 능력에 미치는 영향을 조사하였으며, MiRU는 표준 GRU 및 그 변형과 달리 연습만 사용하더라도 다중 작업 학습에서 안정적인 성능을 보임을 확인했습니다. 이러한 특징들로 인해 MiRU는 에지 디바이스 애플리케이션에 적합한 후보로 자리매김합니다.