본 논문은 대규모 언어 모델(LLM)의 효율적인 파인 튜닝을 위한 융합된 전/후방 어댑터(FFBA)인 FLoRA를 제안합니다. FLoRA는 LoRA 및 병렬 어댑터의 아이디어를 결합하여 전체 파인 튜닝 정확도를 향상시킵니다. 또한, 전/후방 어댑터를 기본 모델의 기존 투영 계층에 융합하여 대기 시간을 최소화합니다. 실험 결과는 FFloRA가 유사한 매개변수 예산으로 널리 사용되는 LoRA보다 정확도와 대기 시간 측면에서 유의미하게 우수한 성능을 보임을 보여줍니다.