Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Analyse des sentiments explicables avec DeepSeek-R1 : performances, efficacité et apprentissage en quelques clics

Created by
  • Haebom

Auteur

Donghao Huang, Zhaoxia Wang

Contour

Cet article compare les performances de DeepSeek-R1, un modèle d'inférence open source, à celles de GPT-4o et GPT-4o-mini d'OpenAI. Nous avons mené des expériences sur le modèle 671B et ses versions réduites afin d'évaluer leurs performances après seulement quelques cycles d'entraînement. DeepSeek-R1 a obtenu un score F1 de 91,39 % en analyse de sentiment à 5 classes et une précision de 99,31 % en analyse de sentiment à 2 classes, soit une efficacité huit fois supérieure à celle de GPT-4o. De plus, l'effet de distillation selon l'architecture a été confirmé : le modèle 32B basé sur Qwen2.5 a surpassé le modèle 70B basé sur Llama de 6,69 %p. DeepSeek-R1 a amélioré l'interprétabilité grâce à la transparence du processus d'inférence, mais sa vitesse de traitement est quelque peu lente. Limitations

Takeaways, Limitations_

Takeaways:
DeepSeek-R1 présente une alternative open source qui offre une efficacité d'apprentissage en quelques coups supérieure à celle des modèles commerciaux tels que GPT-4o.
En analysant l'effet de distillation selon l'architecture du modèle, nous fournissons Takeaways pour le développement futur du modèle.
Il offre une grande interprétabilité grâce à la transparence du processus d’inférence.
Limitations:
La vitesse de traitement est lente pour garantir la transparence du processus d’inférence.
👍