[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

ParaPO: Aligning Language Models to Reduce Verbatim Reproduction of Pre-training Data

Created by
  • Haebom

作者

Tong Chen, Faeze Brahman, Jiacheng Liu, Niloofar Mireshghallah, Weijia Shi, Pang Wei Koh, Luke Zettlemoyer, Hannaneh Hajishirzi

概要

本論文は、事前訓練データの内容をそのまま繰り返す言語モデル(LM)の問題を解決するために、事後訓練方法であるParaphrase Preference Optimization(ParaPO)を提示する。 ParaPOは、LMが記憶した内容をそのまま出力するのではなく、その内容を別の言葉に変えて出力するように訓練する。有名な引用を適切に使用するためにシステムプロンプトを利用するParaPOのバリエーションも提示します。 Llama3.1-8BおよびTulu3-8Bモデルを対象とした実験の結果、ParaPOは従来のunlearning方法よりも効果的に記憶された内容の繰り返しを減らすと同時にモデルの有用性を維持することが示された。特に、システムプロンプトを活用したParaPOは、有名な引用符を記憶する能力を維持しながら、望ましくない内容の繰り返しを減らすのに効果的であることを示した。

Takeaways、Limitations

Takeaways:
事前訓練データの内容をそのまま繰り返す問題(Regurgitation)を効果的に解決する新しい方法(ParaPO)を提示。
従来のUnlearning方法より優れた性能を示す。
システムプロンプトを使用して、特定の状況でのコンテンツの繰り返しを制御できます。
著作権、盗作、プライバシー、創造性の問題解決に貢献。
Limitations:
ParaPOの効果は特定のモデルとデータセットに限定される可能性があります。さまざまなモデルとデータセットの追加の実験が必要です。
システムプロンプトを利用する方法は、プロンプトエンジニアリングへの依存度が高いことがあります。
ParaPOはあらゆる種類のregurgitationを完全に解決することはできません。
👍