Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Comment puis-je publier mon benchmark LLM sans divulguer les vraies réponses ?

Created by
  • Haebom

Auteur

Takashi Ishida, Thanawat Lodkaew, Ikko Yamane

Contour

Cet article soulève le risque que des benchmarks de modèles linguistiques à grande échelle (LLM) accessibles au public soient utilisés, intentionnellement ou non, lors de futures formations ou sélections de LLM, ce qui pourrait entraîner une contamination des modèles. Les solutions existantes, telles que la confidentialité des benchmarks et la soumission des modèles/prédictions des participants, reposent sur la confiance envers une institution spécifique et laissent planer le risque de surapprentissage dû à des requêtes répétées. Cet article propose une méthode de divulgation publique des benchmarks, permettant l'évaluation publique des LLM sans révéler l'intégralité des réponses. L'idée principale est d'introduire un caractère aléatoire dans les réponses en fournissant plusieurs réponses logiquement correctes et en n'en incluant qu'une seule comme réponse correcte. Cette approche réduit la précision bayésienne du benchmark, protégeant ainsi la bonne réponse et fournissant un test de détection de la contamination des données. Étant donné que même les modèles parfaits ne peuvent excéder la précision bayésienne, un dépassement de celle-ci constitue un indicateur fort de contamination des données. Les résultats expérimentaux démontrent que cette méthode permet de détecter avec précision la contamination des données sur une variété de benchmarks, de modèles et de méthodes d'apprentissage.

Takeaways, Limitations

Takeaways:
Une solution efficace au problème de contamination des modèles causé par la divulgation des benchmarks LLM sur Internet.
Une nouvelle méthode d’évaluation publique des LLM sans divulguer entièrement les réponses de référence est proposée.
Une technique de détection de contamination des données utilisant la précision bayésienne est présentée.
Validation des performances de détection de contamination des données sur divers benchmarks, modèles et méthodes d'apprentissage.
Limitations:
L’efficacité de la méthode proposée peut varier en fonction de la conception de référence et de la diversité des réponses.
Tous les cas dépassant la précision bayésienne ne peuvent pas être attribués à une contamination des données. D'autres causes peuvent également y contribuer.
Les résultats expérimentaux peuvent être limités à des ensembles de données et des modèles spécifiques, et des recherches supplémentaires sont nécessaires pour déterminer la généralisabilité.
👍