Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

MachineLearningLM: Escalado del aprendizaje contextual de múltiples disparos mediante preentrenamiento continuo

Created by
  • Haebom

Autor

Haoyu Dong, Pengkun Zhang, Mingzhe Lu, Yanzhen Shen, Guolin Ke

Describir

Este documento presenta un nuevo marco de preentrenamiento continuo , MachineLearningLM , para abordar el desafío de los modelos de lenguaje a gran escala (LLM) que aprenden de una gran cantidad de ejemplos contextuales en tareas tradicionales de aprendizaje automático (ML) . MachineLearningLM preentrena los LLM utilizando tareas de ML generadas a partir de millones de modelos causales estructurados (SCM). Específicamente, utiliza bosques aleatorios para infundir estrategias de toma de decisiones basadas en árboles en los LLM, lo que mejora la robustez del modelado numérico. También utiliza indicaciones eficientes en tokens para aumentar la cantidad de ejemplos por ventana de contexto en un factor de 3 a 6 y mejora el rendimiento hasta 50 veces mediante inferencia por lotes. A pesar de su pequeña configuración basada en Qwen-2.5-7B-Instruct, supera los modelos de línea base robustos de LLM existentes en un promedio del 15% en la clasificación de datos tabulares fuera de distribución en varios dominios (finanzas, física, biología y medicina), lo que demuestra un aumento monótono en la precisión a medida que aumenta la cantidad de ejemplos contextuales. Además, consigue un rendimiento del 75,4% en MMLU, manteniendo la competencia conversacional general.

Takeaways, Limitations

Takeaways:
Presentamos un nuevo marco que mejora significativamente las capacidades de aprendizaje en el contexto del LLM.
Mejorando la robustez en el modelado numérico.
Aprendizaje e inferencia eficientes a través de indicaciones token-eficientes.
Logra un rendimiento superior en comparación con los modelos existentes en diversos campos.
Evidencia clara de mejora del rendimiento a medida que aumenta el número de ejemplos en un contexto.
Mantener habilidades generales de conversación.
Limitations:
Actualmente, este estudio se limita a un LLM específico (Qwen-2.5-7B-Instruct) y a una configuración LoRA. Se requiere más investigación para determinar su generalización a otros LLM y metodologías.
Falta de análisis sobre el impacto del tipo y calidad del SCM utilizado en el desempeño final.
Si bien estos son resultados experimentales que utilizan un conjunto de datos a gran escala, se requiere una evaluación más profunda del rendimiento en un entorno de aplicación del mundo real.
👍