[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Désintoxication des hallucinations : perte de sensibilité (SenD) pour l'entraînement au modèle de langage à grande échelle

Created by
  • Haebom

Auteur

Shahrad Mohammadzadeh, Juan David Guerra, Marco Bonizzato, Reihaneh Rabbany, Golnoosh Farnadi

Contour

Cet article aborde le problème des hallucinations dans les modèles linguistiques à grande échelle (MLH), c'est-à-dire la génération de résultats erronés ou non pertinents. À l'aide d'une série de modèles Pythia, nous étudions la relation entre l'incertitude de la dynamique d'apprentissage et la survenue d'hallucinations. Nous identifions une variabilité significative dans le processus d'apprentissage et proposons le protocole d'apprentissage SenD (Sensitivity Dropout), qui supprime de manière déterministe les indices d'intégration très volatils pour y remédier. Nous développons et intégrons également l'Efficient EigenScore (EES), une mesure de détection d'hallucinations non supervisée deux fois plus rapide que l'EigenScore conventionnel, dans SenD. SenD améliore jusqu'à 17 % la fiabilité des tests des modèles Pythia et Llama et améliore la précision factuelle sur Wikipédia, la médecine, le droit et le codage sans affecter les performances des tâches en aval.

Takeaways, Limitations

Takeaways:
Présentation de SenD, une nouvelle technique de formation pour résoudre le problème des hallucinations dans le LLM.
SenD réduit les hallucinations en réduisant l’incertitude dans le processus de formation.
Développement de l'EES, une mesure efficace de détection des hallucinations par apprentissage non supervisé.
Confirmation de la fiabilité améliorée et de l’exactitude factuelle des modèles Pythia et Llama.
Réduisez les hallucinations sans compromettre les performances des sous-tâches.
Limitations:
L'effet de SenD est limité aux modèles Pythia et Llama, et sa généralisabilité à d'autres architectures LLM nécessite une étude plus approfondie.
Bien que les performances de l'EES soient deux fois plus rapides que celles de l'EigenScore existant, le coût de calcul absolu reste un facteur à prendre en compte.
Une analyse plus approfondie des effets du SenD sur différents types d’hallucinations est nécessaire.
👍