Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

ENSI: Efficient Non-Interactive Secure Inference for Large Language Models

Created by
  • Haebom

作者

Zhiyu He, Maojiang Wang, Xinwen Gao, Yuchuan Luo, Lin Liu, Shaojing Fu

概要

この論文は、大規模言語モデル(LLM)の安全な推論のための新しい非相互作用フレームワークであるENSIを提案します。 ENSIは、暗号化プロトコルとLLMアーキテクチャの共同設計の原則に基づいて、CKKS方式と軽量LLMバリアントであるBitNetを統合して、暗号化された行列乗算の計算の複雑さを大幅に削減します。また、同型暗号化(HE)の下でのsoftmaxの過剰な計算要件に対応し、再訓練を必要としない代替手段としてsigmoidアテンションメカニズムとHEの統合を提示します。さらに、ブートストラップ操作をRMSNormプロセスに統合することで、暗号文を効率的に更新しながらコストのかかるブートストラップ呼び出しの頻度を大幅に削減できます。実験の結果、ENSIは最先端の方法に比べてCPUで行列乗算速度が約8倍、softmax推論速度が2.6倍向上し、ブートストラップ率は1%に減少しました。

Takeaways、Limitations

Takeaways:
LLMに対する安全な推論の実用性を大幅に向上させる効率的なフレームワークENSIを提示します。
CKKSとBitNetの統合により、暗号化された行列乗算の計算の複雑さを大幅に削減。
SigmoidアテンションメカニズムとHEの統合によるソフトマックス計算の効率向上
ブートストラップ操作の効率的な統合による暗号文の更新とブートストラップのコスト削減
実験結果を通してENSIの性能向上を明確に証明した。
Limitations:
ENSIのパフォーマンスは、使用されるハードウェアとLLMのサイズによって異なります。
BitNetなどの軽量LLMバリアントを使用すると、パフォーマンスと精度の妥協が必要になる可能性があります。
実験結果は特定の環境で得られたものであるため、一般化には制限がある場合がある。
他の暗号化方式またはLLMアーキテクチャへの適用性に関するさらなる研究が必要である。
👍