Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Une enquête sur la post-formation des grands modèles linguistiques

Created by
  • Haebom

Auteur

Guiyao Tie, Zeli Zhao, Dingjie Song, Fuyang Wei, Rong Zhou, Yurou Dai, Wen Yin, Zhejian Yang, Jiangyue Yan, Yao Su, Zhenhan Dai, Yifeng Xie, Yihan Cao, Lichao Sun, Pan Zhou, Lifang He, Hechang Chen, Yu Zhang, Qingsong Wen, Tianming Liu, Neil Zhenqiang Gong, Jiliang Tang, Caiming Xiong, Heng Ji, Philip S. Yu et Jianfeng Gao

Contour

Cet article présente la première étude exhaustive des modèles linguistiques post-apprentissage (PoLM). L'avènement des modèles linguistiques à grande échelle (LLM) a révolutionné le traitement automatique du langage naturel (TALN), mais ils présentent également des limites, notamment des capacités d'inférence limitées, des incertitudes éthiques et de faibles performances dans certains domaines. Pour relever ces défis, des PoLM (également appelés modèles d'inférence à grande échelle, LRM), tels qu'OpenAI-o1/o3 et DeepSeek-R1, ont vu le jour. Cet article retrace systématiquement l'évolution des PoLM, en se concentrant sur cinq paradigmes fondamentaux : le réglage fin, l'alignement, l'inférence, l'efficacité, l'intégration et l'adaptation. De la stratégie d'alignement de ChatGPT aux avancées révolutionnaires en matière d'inférence de DeepSeek-R1, nous démontrons comment les PoLM exploitent les ensembles de données pour atténuer les biais, approfondir les capacités d'inférence et améliorer l'adaptabilité au domaine. Nos contributions comprennent une synthèse pionnière des développements en PoLM, une taxonomie structurée catégorisant les techniques et les ensembles de données, et un programme stratégique soulignant le rôle des LRM dans l'amélioration des capacités d'inférence et de la flexibilité du domaine. Cette étude intègre les avancées récentes en PoLM et établit un cadre intellectuel rigoureux pour les recherches futures, favorisant le développement de LLM qui se distinguent par leur rigueur, leur robustesse éthique et leur polyvalence dans les applications scientifiques et sociétales.

Takeaways, Limitations

Takeaways:
Nous organisons systématiquement le développement du PoLM et présentons cinq paradigmes fondamentaux pour fournir une compréhension globale de la recherche PoLM.
Nous présentons un système de classification structuré pour les techniques et les ensembles de données PoLM, suggérant des orientations de recherche futures.
Nous présentons un programme stratégique visant à améliorer les capacités de raisonnement et la flexibilité du domaine du LLM.
Contribuer au développement de LLM qui excellent en termes de précision, de robustesse éthique et de polyvalence dans les applications scientifiques et sociales.
Limitations:
Bien que cet article soit la première étude complète du PoLM, le développement rapide du domaine PoLM ne reflète peut-être pas entièrement les dernières tendances de la recherche.
Plutôt qu’une analyse approfondie de modèles ou de techniques PoLM spécifiques, il se concentre sur la fourniture d’un aperçu des tendances générales de développement.
Bien qu’il présente un programme stratégique pour les recherches futures, il ne fournit pas de détails sur la méthodologie de recherche spécifique ou la conception expérimentale.
👍