Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Analyse des sentiments explicables avec DeepSeek-R1 : performances, efficacité et apprentissage en quelques clics

Created by
  • Haebom

Auteur

Donghao Huang, Zhaoxia Wang

Contour

Cet article présente la première étude exhaustive comparant le modèle d'inférence open source DeepSeek-R1 à GPT-4o et GPT-4o-mini d'OpenAI. Nous avons évalué les performances du modèle 671B et de ses homologues réduits avec seulement quelques exécutions d'entraînement, et avons constaté que DeepSeek-R1 a obtenu un score F1 de 91,39 % sur cinq tâches de classification des émotions et une précision de 99,31 % sur deux tâches de classification des émotions. Cela représente une amélioration d'un facteur huit par rapport à GPT-4o, démontrant une grande efficacité avec seulement quelques exécutions d'entraînement. De plus, nous avons analysé l'effet de distillation par architecture, démontrant que le modèle 32B basé sur Qwen2.5 surpassait le modèle 70B basé sur Llama de 6,69 points de pourcentage. DeepSeek-R1 améliore l'explicabilité en traçant de manière transparente le processus d'inférence étape par étape, mais souffre d'un débit réduit (Limitations).

Takeaways, Limitations

Takeaways:
DeepSeek-R1 présente un modèle alternatif open source qui atteint une grande précision avec quelques cycles d'entraînement, beaucoup plus efficacement que GPT-4o.
Nous fournissons Takeaways pour le développement de modèles en analysant l'effet de distillation selon les caractéristiques architecturales de DeepSeek-R1.
En raison de sa grande explicabilité grâce à un suivi étape par étape, il peut contribuer au développement de modèles d’IA interprétables.
Limitations:
Le processus de suivi étape par étape pour garantir la transparence du processus d’inférence réduit le débit.
👍