Cet article propose une nouvelle stratégie de réglage fin en deux étapes, Think-How-to-Think (TH2T), pour résoudre le problème de l'inférence excessive dans les modèles d'inférence à grande échelle (LRM). TH2T injecte d'abord une prise en compte du niveau de difficulté dans le modèle afin d'ajuster la profondeur d'inférence, puis réduit l'inférence excessive en identifiant et en supprimant les schémas d'inférence inutiles aux étapes intermédiaires. L'apprentissage s'appuie sur un ensemble de données combinant des chemins d'inférence courts et longs. Les résultats expérimentaux obtenus sur les modèles 7B, 14B et 32B démontrent qu'elle maintient les performances tout en réduisant les coûts d'inférence de plus de 70 % sur les tâches faciles et de plus de 40 % sur les tâches difficiles.