GateRA는 LoRA, DoRA, HiRA와 같은 PEFT (Parameter-efficient fine-tuning) 방식의 단점을 개선하고자 제안된, 토큰 단위의 적응적 조절을 도입한 프레임워크입니다. 입력의 중요도에 따라 PEFT 업데이트 강도를 동적으로 조절하여 과적합 및 불충분한 적응 문제를 해결합니다. GateRA는 표준 PEFT에 적응적 게이팅을 통합하여 잘 모델링된 입력에 대한 사전 훈련 지식을 보존하면서, 어려운 케이스에 집중합니다. 엔트로피 기반 정규화를 통해 해석 가능하고 희소한 적응을 촉진하며, 이론적 분석을 통해 GateRA가 PEFT 경로에 부드러운 그래디언트 마스킹 효과를 유도함을 보입니다.