大規模言語モデル(LLM)ベースのAIシステムは、「神経響」と呼ばれる推論失敗モードを示すことができます。これは、特定の重みの高い入力が支配的な役割を果たし、修正が困難な固定応答パターンにつながる自己強化型認知ループです。この論文は、モデルの崩壊や偏った重要度の重みとは異なるこの現象のメカニズムを探ります。逆補正を動的に導入する減衰ベースの修正メカニズムを提案することで、「固定された」AIシステムでも適応推論を復元することができます。また、不適切に管理された強化によって引き起こされる他の関連する効果について議論し、実際の意思決定の課題におけるAIの堅牢性を向上させるためのこの緩和戦略の潜在的な用途を概説します。