Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Unveiling the Landscape of LLM Deployment in the Wild: An Empirical Study

Created by
  • Haebom

作者

Xinyi Hou, Jiahao Han, Yanjie Zhao, Haoyu Wang

概要

本論文は、オープンソースおよび商用フレームワークを通じて展開される大規模言語モデル(LLM)のセキュリティ脆弱性に関する大規模実証研究の結果を提供します。インターネット全体の測定により、15のフレームワークから320,102のパブリックLLMサービスを識別し、12の機能グループに分類された158のユニークなAPIエンドポイントを抽出しました。分析の結果、40%以上のエンドポイントが一般的なHTTPを使用し、210,000を超えるエンドポイントが有効なTLSメタデータがありませんでした。一部のフレームワークは、認証されていないAPIリクエストの35%以上に応答してモデルまたはシステム情報の漏洩を引き起こすなど、APIインプレッションが非常に矛盾していました。不安全なプロトコルの使用、不適切なTLS設定、および重要な操作への認証されていないアクセスが広く観察されています。このようなセキュリティリスクは、モデルの漏洩、システムの破損、不正アクセスなどの重大な結果を招く可能性があります。

Takeaways、Limitations

Takeaways:
LLMサービスのセキュリティ脆弱性が深刻であり、安全な環境設定と強化された展開慣行が必要であることを示しています。
さまざまなLLMフレームワーク間のセキュリティレベルの不一致を特定し、改善の方向性を提示します。
モデルの漏洩、システムの損傷、不正アクセスなどのリスクを具体的に提示し、セキュリティ強化の重要性を強調します。
Limitations:
特定の時間帯のスナップショットベースの研究であるため、時間の経過に伴う変化を反映できない可能性があります。
分析対象はインターネット上で公開されているサービスに限定され、非公開で展開されているLLMのセキュリティ状況は反映されません。
発見された脆弱性の重大性と潜在的な影響の定量的評価が不足する可能性があります。
👍