Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Avoidance Decoding for Diverse Multi-Branch Story Generation

Created by
  • Haebom

作者

キョンマンパーク、ナキョンヤン、キョミンジャング

概要

本論文は、大規模言語モデル(LLM)が同じ入力プロンプトに対して制約された創造的多様性のために、特にストーリー生成などのタスクで繰り返して単調な出力を生成する問題を解決するための新しい復号戦略である回避復号を提案する。回避復号化は、以前に生成された出力との類似性にペナルティを課してトークンロジットを修正することによって、より多様なマルチブランチストーリーを促進します。このペナルティは、初期段階では、初期話の概念の多様性のために概念レベル類似性ペナルティ(Concept-level Similarity Penalty)を優先し、後半には自然であるが多様なプロット展開を保証するために記述レベル類似性ペナルティ(Narrative-level Similarity Penalty)を徐々に強調する適応型バランスをなしている。提案された方法は、従来の方法よりも最大2.6倍高い出力多様性を達成し、繰り返しを平均30%削減しながら、テキストの劣化を効果的に軽減する。さらに、この方法はより広い範囲のニューロンを活性化し、モデルの固有の創造性を利用することを示す。

Takeaways、Limitations

Takeaways:
LLMの出力多様性を向上させる新しい復号戦略である回避復号を提示。
従来の方法より有意に高い出力多様性と反復低減効果を達成
テキスト劣化の問題を軽減。
LLMの固有の創造性活用証明
Limitations:
提案された方法の一般化性能に対する追加実験の必要性
さまざまなタイプのLLMと作業に適用可能性の検証が必要です。
概念レベルと記述レベル類似性ペナルティの最適比率決定に関するさらなる研究が必要
👍