この論文は、文の意味を表現するために最適化された新しい静的単語埋め込みを提案します。事前に訓練されたSentence Transformerから単語埋め込みを抽出し、文レベルの主成分分析によって改善した後、知識蒸留または対照学習を適用します。推論プロセスでは、単語の埋め込みを単純に平均して文を表現します。これは少ない計算コストを必要とします。単一言語およびクロス言語タスクでモデルを評価した結果、提案されたモデルは、従来の静的モデルよりも文章意味タスクではるかに優れたパフォーマンスを示し、基本的なSentence Transformerモデル(SimCSE)でさえ凌駕しました。さらに、提案された方法論が文の意味に関連しない単語埋め込みコンポーネントをうまく除去し、単語の文の意味に影響に基づいてベクトルノルムを調整することを分析によって確認した。