Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

MachineLearningLM: Escalado del aprendizaje contextual de múltiples disparos mediante preentrenamiento continuo

Created by
  • Haebom

Autor

Haoyu Dong, Pengkun Zhang, Mingzhe Lu, Yanzhen Shen, Guolin Ke

Describir

Este artículo presenta un nuevo marco de trabajo, MachineLearningLM, que mejora las capacidades de aprendizaje sensible al contexto (ICL) de los modelos lingüísticos a gran escala (LLM). MachineLearningLM se preentrena utilizando diversas tareas de aprendizaje automático (ML) generadas a partir de millones de modelos causales estructurados (SCM). Específicamente, incorpora a LLM una estrategia de toma de decisiones basada en bosques aleatorios para mejorar la robustez del modelado numérico y mejora el rendimiento al procesar más ejemplos por ventana de contexto mediante indicaciones con un uso eficiente de tokens. Los resultados experimentales demuestran que MachineLearningLM supera a los modelos de referencia LLM robustos existentes en un promedio del 15% en tareas de clasificación de datos tabulares no distribuidos en diversos dominios, mostrando una notable ley de escalamiento multidisparo, con una precisión que aumenta monótonamente a medida que aumenta el número de ejemplos dentro del contexto. Además, mantiene la funcionalidad general de chat, el conocimiento y las capacidades de inferencia.

Takeaways, Limitations

Takeaways:
Presentamos un marco novedoso para mejorar de manera efectiva las capacidades de aprendizaje contextual del LLM.
Logre un rendimiento superior al de los modelos existentes en tareas de ML en una amplia gama de campos.
Verificamos la ley de escalamiento de múltiples disparos, que muestra que el rendimiento mejora a medida que aumenta el número de ejemplos en el contexto.
Mejore las capacidades de ML mientras mantiene la funcionalidad general del chat y las capacidades de conocimiento y razonamiento.
Mejore significativamente el rendimiento mediante indicaciones que utilizan tokens de manera eficiente.
Limitations:
Actualmente, solo se presentan resultados experimentales utilizando una escala específica de LLM (Qwen-2.5-7B-Instruct) y LoRA. Se requiere más investigación para determinar su generalización a otros modelos y entornos.
Falta de descripción detallada del proceso de generación y selección de modelos causales estructurales (SCM).
Se necesita una mayor validación del rendimiento de generalización en varios tipos de tareas de ML.
👍