Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Dévoiler le paysage du déploiement du LLM dans la nature : une étude empirique

Created by
  • Haebom

Auteur

Xinyi Hou, Jiahao Han, Yanjie Zhao, Haoyu Wang

Contour

Cet article présente les résultats d'une étude empirique à grande échelle sur les vulnérabilités de sécurité des modèles de langage à grande échelle (LLM) déployés via des frameworks open source et commerciaux. Grâce à des mesures menées sur Internet, nous avons identifié 320 102 services LLM accessibles au public dans 15 frameworks et extrait 158 ​​points de terminaison d'API uniques, classés en 12 groupes fonctionnels. Notre analyse a révélé que plus de 40 % des points de terminaison utilisaient le protocole HTTP standard et que plus de 210 000 ne disposaient pas de métadonnées TLS valides. Certains frameworks présentaient des expositions d'API très incohérentes, répondant à plus de 35 % des requêtes API non authentifiées, ce qui pouvait entraîner des fuites d'informations sur les modèles ou les systèmes. Nous avons observé une utilisation généralisée de protocoles non sécurisés, des configurations TLS incorrectes et des accès non autorisés à des opérations critiques. Ces vulnérabilités de sécurité peuvent avoir de graves conséquences, notamment des fuites de modèles, des compromissions de systèmes et des accès non autorisés.

Takeaways, Limitations

Takeaways:
Les vulnérabilités de sécurité dans les services LLM sont graves et démontrent la nécessité de paramètres par défaut sécurisés et de pratiques de déploiement améliorées.
Nous identifions les incohérences de niveau de sécurité entre différents frameworks LLM et suggérons des moyens de les améliorer.
Il souligne l’importance de renforcer la sécurité en mettant spécifiquement en évidence les risques tels que les fuites de modèles, la corruption du système et l’accès non autorisé.
Limitations:
ÉTant donné que cette étude est basée sur un instantané d’une période donnée, elle peut ne pas refléter les changements au fil du temps.
ÉTant donné que l’analyse se limite aux services accessibles au public sur Internet, elle ne reflète pas l’état de sécurité des LLM distribués en privé.
Il peut y avoir un manque d’évaluation quantitative de la gravité et de l’impact potentiel des vulnérabilités découvertes.
👍