本論文は、既存のソフトマックスアテンションの数値的不安定性と長い推論トークン長での性能低下の問題を解決するための新しいアテンションメカニズムを提案する。ソフトマックス演算を非線形陽性変換と$L_1$-正規化段階に分解し、$l_1$-正規化がモデル性能の維持に不可欠であることを明らかにした。最初のステップでは、指数関数の代わりに数値的に安定したソフトプラス活性化関数と不変エントロピーベースの動的スケーリング係数を導入して、既存のソフトマックスアテンションを上回る新しいアテンションメカニズムを提示します。第2段階では、アテンション分布をシャープにする再重みメカニズムを導入し、重要な重みを増幅し、弱い重みを減らして関連トークンにさらに効果的に集中させる。この2段階のアプローチを組み合わせて、数値的安定性を確保し、長いコンテキスト抽出作業と標準ダウンストリームベンチマークで優れた結果を達成しながら、学習長さの16倍でもほぼ一定の検証損失を維持し、長さ外挿性能を劇的に向上させます。