本論文は、従来のパラメトリック効果的なファインチューニング(PEFT)法が事前学習された重みを凍結し、低ランクまたは希少な新しい重みを学習する方法でパフォーマンスの向上に限界があるという問題を指摘しています。既存のメソッドは新しい重みを最初から学習するため、パフォーマンスの低下が発生します。これにより、従来のPEFT方法よりもはるかに少ないパラメータ(9倍減少)で全体の微調整と同様の性能を達成し、自然言語の理解と生成、質疑応答、画像分類および生成など、さまざまな作業で優れた性能を示すことを19のデータセットを通じて実験的に証明します。