Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Language Models are Injective and Hence Invertible

Created by
  • Haebom

作者

Giorgos Nikolaou, Tommaso Mencattini, Donato Crisostomi, Andrea Santilli, Yannis Panagakis, Emanuele Rodol a

概要

Transformerモデルの非線形活性化と正規化により、入力の正確な復元が不可能であるという一般的な認識に挑戦します。本論文では、トランスフォーマ言語モデルが入力シーケンスを連続表現シーケンスにマッピングするプロセスが注入的で損失がないことを数学的に証明する。さらに、6つの最先端の言語モデルの数十億件の衝突テストで、この結果を経験的に確認しました。最後に、注入性を活用して隠し活性化から正確な入力テキストを効率的に再構成するアルゴリズムであるSipItを開発しました。これは線形時間保証を確立し、実際に正確な可逆性を実証する。

Takeaways、Limitations

Takeaways:
Transformer言語モデルの基本的な属性である注入性を確立し、透明性、解釈可能性、および安全な展開に直接影響を与えます。
隠された活性化から正確な入力テキストを再構成する最初のアルゴリズムであるSipItを開発。
言語モデルの表現の新しい理解を提示し、モデルの内部の仕組みについての洞察を提供します。
Limitations:
論文に具体的なLimitations言及なし。
👍