Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo. La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro. Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.
Hacia un aprendizaje contextual de múltiples disparos óptimo para el cómputo
Created by
Haebom
Autor
Shahriar Golchin, Yanfei Chen, Rujun Han, Manan Gandhi, Tianli Yu, Swaroop Mishra, Mihai Surdeanu, Rishabh Agarwal, Chen-Yu Lee, Tomas Pfister
Describir
Este artículo propone una estrategia eficiente de selección de demostraciones para el entrenamiento multidisparo de ICL en modelos de lenguaje a gran escala (LLM) de contexto largo, capaces de procesar millones de tokens. Los métodos actuales de selección aleatoria de demostraciones presentan altos costos de inferencia y mejoras de rendimiento limitadas. En este artículo, proponemos dos estrategias: una que combina un pequeño número de demostraciones similares a la muestra de prueba con un gran número de demostraciones aleatorias en caché, y la otra que selecciona demostraciones con base en los centroides de la representación de la muestra de prueba mediante agrupamiento de k-medias. Los resultados experimentales con modelos Gemini Pro y Flash demuestran que la estrategia propuesta supera la selección aleatoria y es comparable o superior a los métodos de selección de demostraciones existentes de mejor rendimiento, a la vez que reduce los costos de inferencia en hasta un orden de magnitud. Además, demostramos que la tasa de selección de demostraciones puede ajustarse con base en diferentes criterios para equilibrar el rendimiento y los costos de inferencia.
Takeaways, Limitations
•
Takeaways:
◦
Demostramos que mejorar la estrategia de selección de demostraciones en el aprendizaje de múltiples disparos puede mejorar simultáneamente el rendimiento y reducir el costo de inferencia.
◦
Las dos estrategias propuestas son simples, fáciles de implementar y tienen un gran potencial de aplicación práctica.
◦
Ajustar la proporción de selección de demostración puede gestionar de manera efectiva el equilibrio entre rendimiento y costo de inferencia.
•
Limitations:
◦
La eficacia de la estrategia propuesta puede estar limitada a LLM y conjuntos de datos específicos.
◦
Se necesitan más experimentos con LLM y conjuntos de datos más diversos.
◦
El ajuste de parámetros para métodos como la agrupación en clústeres k-means puede afectar el rendimiento.