本論文は,大規模言語モデルのパラメータ効率的微調整(PEFT)法を提案する。従来のLoRAのような手法は、低ランク行列を導入して計算コストを削減する一方、本論文ではモデルパラメータの一部をランダムに選択して学習する簡単な方法を提示する。モデルのすべてのパラメータではなく一部のみを学習することで計算とメモリリソースを節約することに焦点を当てており、LoRAとのパフォーマンスと効率の比較を通じて提案された方法の競争力を示しています。結論として、PEFT技術の性能は、特定のアダプタ構造より学習可能なパラメータの数により大きく影響されることを示唆する。