Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Análisis de sentimientos explicable con DeepSeek-R1: rendimiento, eficiencia y aprendizaje rápido

Created by
  • Haebom

Autor

Donghao Huang, Zhaoxia Wang

Describir

Este artículo presenta el primer estudio exhaustivo que compara el modelo de inferencia de código abierto DeepSeek-R1 con GPT-4o y GPT-4o-mini de OpenAI. Evaluamos el rendimiento del modelo 671B y sus contrapartes reducidas con solo unas pocas ejecuciones de entrenamiento, y descubrimos que DeepSeek-R1 logró una puntuación F1 del 91,39 % en cinco tareas de clasificación de emociones y una precisión del 99,31 % en dos tareas de clasificación de emociones. Esto representa una mejora de ocho veces sobre GPT-4o, lo que demuestra una alta eficiencia con solo unas pocas ejecuciones de entrenamiento. Además, analizamos el efecto de destilación por arquitectura, demostrando que el modelo basado en Qwen2.5 de 32B superó al modelo basado en Llama de 70B en 6,69 puntos porcentuales. DeepSeek-R1 mejora la explicabilidad al rastrear de forma transparente el proceso de inferencia paso a paso, pero sufre de un rendimiento reducido (Limitations).

Takeaways, Limitations

Takeaways:
DeepSeek-R1 presenta un modelo alternativo de código abierto que logra una alta precisión con unas pocas rondas de entrenamiento, de manera mucho más eficiente que GPT-4o.
Proporcionamos Takeaways para el desarrollo del modelo mediante el análisis del efecto de destilación de acuerdo con las características arquitectónicas de DeepSeek-R1.
Debido a su alta explicabilidad a través del seguimiento paso a paso, puede contribuir al desarrollo de modelos de IA interpretables.
Limitations:
El proceso de seguimiento paso a paso para garantizar la transparencia del proceso de inferencia reduce el rendimiento.
👍