Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Repenser le réglage des instructions de table

Created by
  • Haebom

Auteur

Naihao Deng, Rada Mihalcea

Contour

Cet article souligne l'absence d'évaluation exhaustive de l'influence de la sélection d'hyperparamètres sur le réglage fin des modèles de langage à grande échelle (MLL) pour la compréhension tabulaire et leur capacité à généraliser et à généraliser hors domaine. Nous évaluons les LLM tabulaires existants et constatons que leur capacité à généraliser et à comprendre hors domaine est nettement inférieure à celle des modèles de référence. Nous montrons que des hyperparamètres tels que le taux d'apprentissage ont un impact significatif sur les caractéristiques spécifiques et générales des tableaux. Contrairement aux études précédentes, nous démontrons que de faibles taux d'apprentissage et un nombre limité d'instances d'apprentissage peuvent améliorer la compréhension tabulaire tout en préservant les caractéristiques générales. Sur la base de ces résultats, nous présentons un LLM tabulaire appelé TAMA, optimisé sur LLaMA 3.1 8B Instruct, qui atteint des performances comparables ou supérieures à celles de GPT-3.5 et GPT-4 sur les tâches tabulaires tout en conservant une forte généralisation hors domaine et des caractéristiques générales. Cela démontre le potentiel de réduction des coûts d'annotation des données et d'amélioration de l'efficacité du développement de modèles grâce à une sélection rigoureuse des hyperparamètres. Nous rendons notre projet et notre modèle open source dans cet article.

Takeaways, Limitations_

Takeaways:
Nous soulignons l’importance des hyperparamètres (en particulier les taux d’apprentissage) dans le réglage fin des instructions de LLM pour la compréhension des tables.
Nous présentons une méthode de réglage fin efficace qui améliore la capacité de compréhension des tables et maintient les fonctionnalités générales en utilisant moins de données et un faible taux d'apprentissage.
Nous présentons et ouvrons le code source d'un nouveau LLM tabulaire haute performance appelé TAMA.
Cela suggère le potentiel de réduire les coûts d’annotation des données et d’améliorer l’efficacité du développement des modèles.
Limitations:
Les types de LLM évalués dans cette étude peuvent être limités.
Les performances de généralisation pour des types spécifiques de données tabulaires nécessitent une étude plus approfondie.
Une validation supplémentaire est nécessaire pour déterminer si les performances de TAMA sont supérieures sur tous les types d’opérations tabulaires.
👍