Este artículo propone Low-Confidence Gold (LCG), un novedoso marco de filtrado para mejorar la eficiencia del ajuste fino de directivas en modelos lingüísticos a gran escala. LCG identifica pares de directivas valiosos mediante agrupamiento basado en centroides y selección basada en la confianza. El aprendizaje semisupervisado con clasificadores ligeros genera subconjuntos de alta calidad, preservando la diversidad de los datos. Los resultados experimentales muestran que un modelo ajustado con 6000 muestras filtradas por LCG supera a los métodos existentes, mostrando mejoras significativas de rendimiento en MT-bench y mejoras consistentes en el rendimiento en métricas de evaluación integrales. La eficacia de este marco para mejorar la eficiencia, manteniendo el rendimiento del modelo, sugiere una dirección prometedora para el ajuste fino eficiente de directivas.