Este artículo destaca que el rendimiento del ajuste fino de los modelos de lenguaje a gran escala (LLM) depende en gran medida de la composición de la mezcla de datos de entrenamiento; sin embargo, el proceso de selección de la mezcla óptima de datos es manual y heurístico. Por lo tanto, proponemos TASKPGM, un marco de optimización de mezclas escalable y basado en principios que selecciona ratios de tareas continuas minimizando una función de energía mediante Campos Aleatorios de Markov (MRF). TASKPGM modela las relaciones entre tareas utilizando diferencias de comportamiento, como la Divergencia de Jensen-Shannon y la Información Mutua Puntual, calculadas a partir de la distribución predictiva de modelos de ajuste fino de una sola tarea. Proporciona una solución de forma cerrada bajo restricciones de grupo y equilibra de forma demostrable la representatividad y la diversidad entre tareas. Demuestra mejoras consistentes en el rendimiento empírico con herramientas de evaluación como MMLU y BIGBench en Llama 2 y Mistral, junto con garantías teóricas (incluida la submodularidad débil para variantes con restricciones presupuestarias). Más allá del rendimiento, TASKPGM proporciona información interpretable sobre la influencia de la tarea y la composición de la mezcla, lo que lo convierte en una herramienta poderosa para un ajuste fino y robusto del LLM.