Cet article propose Low-Confidence Gold (LCG), un nouveau cadre de filtrage pour améliorer l'efficacité du réglage fin des directives dans les modèles linguistiques à grande échelle. LCG identifie les paires de directives utiles grâce au clustering basé sur les centroïdes et à la sélection basée sur la confiance. L'apprentissage semi-supervisé utilisant des classificateurs légers génère des sous-ensembles de haute qualité tout en préservant la diversité des données. Les résultats expérimentaux montrent qu'un modèle affiné sur 6 000 échantillons filtrés par LCG surpasse les méthodes existantes, démontrant des gains de performance significatifs sur MT-bench et des gains de performance constants sur des métriques d'évaluation complètes. L'efficacité de ce cadre pour améliorer l'efficacité tout en maintenant les performances du modèle suggère une voie prometteuse pour un réglage fin efficace des directives.