[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Semilla-X: Desarrollo de un sólido Máster en Traducción Multilingüe con los parámetros 7B

Created by
  • Haebom

Autor

Shanbo Cheng, Yu Bao, Qian Cao, Luyang Huang, Liyan Kang, Zhicheng Liu, Yu Lu, Wenhao Zhu, Zhichao Huang, Tao Li, Sitong Liu, Ningxin Peng, Shuaijie She, Lu Xu, Nuo Xu, Sen Yang, Runsheng Yu, Yiming Yu, Liehao Zou, Hang Li, Lu Lu, Yuxuan Wang, Yonghui Wu

Describir

Seed-X es una familia de modelos lingüísticos multilingües a gran escala (LLM) de código abierto con un tamaño de parámetro de 7B. Basado en un modelo base preentrenado con datos monolingües y bilingües diversos y de alta calidad de 28 idiomas, un modelo dirigido y optimizado mediante inferencia de Cadena de Pensamiento (CoT) mejora el rendimiento de la generalización en múltiples pares de idiomas mediante aprendizaje por refuerzo (RL). Alcanza un rendimiento comparable al de modelos de bucle cerrado de vanguardia como Gemini-2.5 y GPT-4o en 28 idiomas, y supera significativamente a los modelos de código abierto de mayor tamaño, tanto en métricas de evaluación automatizadas como en evaluación humana. Compartimos las mejores prácticas en el proceso de optimización y publicamos los parámetros para contribuir al avance de la investigación y las aplicaciones de la traducción.

Takeaways, Limitations

Takeaways:
Lograr un rendimiento de traducción multilingüe similar a los modelos de forma cerrada de última generación con un tamaño relativamente pequeño de 7B parámetros.
Publicado como código abierto, contribuyendo al desarrollo de investigaciones y aplicaciones de traducción multilingüe.
Presentación de una estrategia de mejora del rendimiento a través de la inferencia CoT y el aprendizaje de refuerzo.
Excelente rendimiento de generalización en una variedad de pares de idiomas.
Limitations:
El Limitations específico no se menciona en el artículo. Existe margen de mejora mediante investigación adicional.
👍