본 논문은 대규모 데이터로 학습된 Transformer 기반 모델의 생태계에서 파라미터 효율적인 미세 조정(PEFT) 기술의 중요성을 강조하며, Transformer의 대안으로 주목받는 State Space Model(SSM) 기반 모델인 Mamba에 대한 PEFT 방법을 탐구합니다. 기존 Transformer용 PEFT 방법을 Mamba에 적용하고, Mamba 구조에 맞춰 수정된 방법과 새로운 Mamba 특화 PEFT 방법을 제안하여 실험을 통해 Mamba에서 PEFT가 Transformer보다 더 효과적임을 보여줍니다. 여러 PEFT 방법을 효과적으로 결합하는 프레임워크를 제시하며, 기존 연구보다 우수한 성능을 달성합니다. 코드는 출판 후 공개될 예정입니다.