Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

ZkLoRA: Fine-Tuning Large Language Models with Verifiable Security via Zero-Knowledge Proofs

Created by
  • Haebom

作者

Guofu Liao, Taotao Wang, Shengli Zhang, Jiqun Zhang, Shi Long, Dacheng Tao

概要

本論文では、大規模言語モデル(LLM)の特定の作業に適応するためのパラメータ効率的な微調整技術であるLoRa(Low-Rank Adaptation)を提案し、これをゼロ知識証明(ZKPs)と統合してセキュリティと検証可能性を確保するzkLoRAフレームワークを紹介します。 zkLoRAは、Transformerベースのアーキテクチャにおける算術演算と非算術演算の両方を検証するために、ルックアップ引数、合計検証プロトコル、多項式コミットメントなどの暗号化技術を使用します。これは、LLaMAなどのオープンソースLLMから最大130億のパラメータまで拡張可能で、伝播、逆伝播、パラメータ更新プロセス全体の検証可能性を提供し、モデルパラメータとトレーニングデータのプライバシーを保護します。結論として、zkLoRAは限られた環境で安全で信頼できるLLM展開を可能にします。

Takeaways、Limitations

Takeaways:
LoRAの微調整とZKPの統合により、信頼できない環境での安全なLLM展開の可能性を提供します。
モデルパラメータとトレーニングデータのプライバシーを保証します。
伝播、逆伝播、パラメータ更新プロセス全体の検証可能性を提供します。
130億個のパラメータまで拡張可能な実用的な性能を示します。
Limitations:
ZkLoRAの性能と効率のさらなる実験的評価が必要です。特に、より大きなモデルのスケーラビリティと実際のアプリケーションでのパフォーマンスをさらに検証する必要があります。
実装の複雑さによって、実際のアプリケーションへのアクセシビリティが制限される可能性があります。
特定の暗号化技術に依存するため、セキュリティの脆弱性が発生する可能性があります。
👍