Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

BOOST : Amorçage de programmes de raisonnement axés sur la stratégie pour une vérification des faits guidée par programme

Created by
  • Haebom

Auteur

Qisheng Hu, Quanyu Long, Wenya Wang

Contour

Cet article présente un pipeline de modèles de langage à grande échelle qui améliore la vérification automatisée des faits d'affirmations complexes. Les méthodes d'inférence guidées par programme existantes souffrent de limitations liées à leur dépendance à des démonstrations générées manuellement. Pour surmonter ces limitations, nous proposons BOOST, une méthode d'amorçage qui affine de manière itérative les méta-règles basées sur les données, sans intervention humaine. BOOST passe de manière transparente d'un apprentissage guidé par programme à zéro coup à un apprentissage guidé par programme à quelques coups, améliorant ainsi l'interprétabilité et l'efficacité. Les résultats expérimentaux démontrent que BOOST surpasse les modèles de base à quelques coups existants pour la vérification d'affirmations complexes.

Takeaways, Limitations_

Takeaways:
Nous présentons une nouvelle méthode permettant de générer automatiquement des programmes d’inférence à quelques coups sans intervention humaine.
Améliorez l’efficacité et l’interprétabilité grâce à une transition transparente de l’apprentissage zéro coup à l’apprentissage en quelques coups.
Atteint des performances supérieures par rapport aux méthodes existantes dans les tâches complexes de vérification d'assertions.
Limitations:
Une analyse plus approfondie est nécessaire sur les performances de généralisation du processus d’apprentissage des méta-règles de BOOST.
Une évaluation plus approfondie des performances de généralisation pour différents types de revendications complexes est nécessaire.
Des recherches supplémentaires sont nécessaires sur les vulnérabilités aux biais des données et sur la manière d’y remédier.
👍