대규모 언어 모델(LM)과 컴퓨터 비전(CV) 분야에서, 사전 훈련된 가중치를 고정하고 제한된 수의 파라미터만 수정하는 자원 효율적인 방법인 Parameter-Efficient Fine-Tuning (PEFT)이 등장했다. 본 논문은 모든 위치 인덱스에 수정을 적용하는 기존 PEFT 접근 방식의 필요성에 의문을 제기하고, Token-Selective PEFT (TS-PEFT)라는 새로운 패러다임을 제안한다. TS-PEFT는 함수 S를 사용하여 PEFT 수정을 위치 인덱스의 하위 집합에 선택적으로 적용하며, 다운스트림 작업의 성능을 향상시킬 수 있다. 실험 결과는 모든 인덱스에 대한 무차별적인 PEFT 적용이 불필요할 뿐만 아니라 역효과를 낼 수 있음을 보여준다. 본 연구는 PEFT에 대한 새로운 관점을 제시하고, 보다 목표 지향적인 수정 방식을 옹호하며, 대규모 모델의 미세 조정을 최적화하기 위한 프레임워크를 제공한다.