Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Attention aux perturbations du monde réel ! Évaluation de la robustesse naturelle en compréhension de lecture automatique

Created by
  • Haebom

Auteur

Yulong Wu, Viktor Schlegel, Riza Batista-Navarro

Contour

Cet article met en évidence les limites des évaluations de robustesse existantes des modèles de compréhension de lecture automatique (MRC), qui reposent principalement sur des perturbations artificielles. Nous proposons un nouveau cadre d'évaluation de la robustesse des modèles MRC basé sur des perturbations textuelles naturelles, en exploitant l'historique des modifications de Wikipédia. Des expériences sur le jeu de données SQUAD et diverses architectures de modèles démontrent que les perturbations naturelles dégradent les performances des modèles de langage d'encodeur pré-entraînés, et que même les modèles Flan-T5 et les modèles de langage à grande échelle (LLM) de pointe présentent ces erreurs. De plus, nous démontrons que la robustesse peut être améliorée en utilisant des données entraînées avec des perturbations naturelles ou artificielles, mais que des écarts de performance subsistent par rapport aux données non perturbées.

Takeaways, Limitations

Takeaways:
Nous surmontons les limites de l’évaluation de la robustesse du modèle MRC qui repose sur des méthodes de perturbation artificielle existantes et proposons un nouveau cadre d’évaluation qui utilise les perturbations naturelles.
Nous avons démontré expérimentalement que même les modèles MRC de pointe sont vulnérables aux perturbations naturelles du texte.
Nous suggérons que la robustesse du modèle peut être améliorée en l’entraînant avec des données perturbées naturellement ou artificiellement.
Limitations:
Les perturbations naturelles basées sur l'historique des modifications de Wikipédia se concentrent sur un type spécifique de perturbation, et la généralisabilité à d'autres types de perturbations naturelles nécessite une étude plus approfondie.
Les méthodes de formation proposées pour améliorer la robustesse aux perturbations naturelles ne parviennent toujours pas à combler complètement l’écart de performance avec les données non perturbées.
Il se peut qu’il ne reflète pas pleinement les diverses perturbations textuelles du monde réel.
👍