Cet article compare les performances de DeepSeek-R1, un modèle d'inférence open source, à celles de GPT-4o et GPT-4o-mini d'OpenAI. Nous avons mené des expériences sur le modèle 671B et ses versions réduites afin d'évaluer leurs performances après seulement quelques cycles d'entraînement. DeepSeek-R1 a obtenu un score F1 de 91,39 % en analyse de sentiment à 5 classes et une précision de 99,31 % en analyse de sentiment à 2 classes, soit une efficacité huit fois supérieure à celle de GPT-4o. De plus, l'effet de distillation selon l'architecture a été confirmé : le modèle 32B basé sur Qwen2.5 a surpassé le modèle 70B basé sur Llama de 6,69 %p. DeepSeek-R1 a amélioré l'interprétabilité grâce à la transparence du processus d'inférence, mais sa vitesse de traitement est quelque peu lente. Limitations