Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Piratage de grands modèles de langage : quantifier les risques cachés liés à l'utilisation de LLM pour l'annotation de texte

Created by
  • Haebom

Auteur

Joachim Baumann, Paul Rottger, Aleksandra Urman, Albert Wendsjo , Flor Miriam Plaza-del-Arco, Johannes B. Gruber, Dirk Hovy

Contour

Cet article aborde le problème du « piratage des LLM », qui survient lors de l'utilisation de modèles linguistiques à grande échelle (LLM) dans la recherche en sciences sociales. L'annotation des données et l'analyse de texte à l'aide de LLM peuvent varier considérablement selon les choix de mise en œuvre du chercheur, tels que le choix du modèle, la stratégie d'invite et les paramètres de température. Cela peut entraîner des biais systématiques et des erreurs aléatoires, entraînant des erreurs de type I, II, S et M. Les chercheurs ont reproduit 37 tâches d'annotation de données issues de 21 articles de recherche en sciences sociales à l'aide de 18 modèles différents, analysé 13 millions d'étiquettes LLM et testé 2 361 hypothèses afin de mesurer l'impact des choix du chercheur sur les conclusions statistiques. Les résultats ont montré que les modèles de pointe et les modèles linguistiques à petite échelle ont produit des conclusions erronées basées sur les données d'annotation LLM dans environ un tiers des hypothèses, tandis que les modèles à petite échelle ont produit environ la moitié des hypothèses. Des performances élevées aux tâches et des caractéristiques générales supérieures du modèle réduisent, sans toutefois les éliminer, le risque de piratage des LLM, et ce risque diminue à mesure que l'ampleur de l'effet augmente. De plus, nous démontrons que le piratage intentionnel des LLM peut être réalisé très simplement et que tout résultat peut être présenté comme statistiquement significatif avec seulement quelques LLM et quelques variations rapides. En conclusion, cela souligne l'importance de minimiser les erreurs dans la recherche en sciences sociales utilisant les LLM grâce à l'annotation humaine et à une sélection rigoureuse des modèles.

Takeaways, Limitations

Takeaways:
Révéler quantitativement la gravité du problème de « piratage LLM » qui survient lors de l'application du LLM à la recherche en sciences sociales.
Souligne l’importance de l’annotation humaine pour réduire le risque de piratage LLM.
Plus la taille de l’effet est grande, plus le risque de piratage LLM est faible.
Les résultats proches du seuil de signification statistique nécessitent une validation plus rigoureuse.
Les techniques courantes de correction des estimations de régression sont inefficaces pour réduire le risque de piratage LLM.
Révèle que le piratage délibéré du LLM est très facile.
Limitations:
La généralisabilité du LLM et de l’ensemble de données utilisé dans l’analyse doit être examinée.
Des recherches sont nécessaires sur des méthodologies plus efficaces pour atténuer les risques de piratage du LLM.
👍