本論文は、大規模言語モデル(LLM)が同じ入力プロンプトに対して制約された創造的多様性のために、特にストーリー生成などのタスクで繰り返して単調な出力を生成する問題を解決するための新しい復号戦略である回避復号を提案する。回避復号化は、以前に生成された出力との類似性にペナルティを課してトークンロジットを修正することによって、より多様なマルチブランチストーリーを促進します。このペナルティは、初期段階では、初期話の概念の多様性のために概念レベル類似性ペナルティ(Concept-level Similarity Penalty)を優先し、後半には自然であるが多様なプロット展開を保証するために記述レベル類似性ペナルティ(Narrative-level Similarity Penalty)を徐々に強調する適応型バランスをなしている。提案された方法は、従来の方法よりも最大2.6倍高い出力多様性を達成し、繰り返しを平均30%削減しながら、テキストの劣化を効果的に軽減する。さらに、この方法はより広い範囲のニューロンを活性化し、モデルの固有の創造性を利用することを示す。