Cet article étudie l'application des modèles de langage à grande échelle (LLM) et des techniques de chaîne de pensée (CoT) à la réparation automatique de programmes (APR). Nous soulignons les limites des techniques CoT existantes dans leur application à la APR et proposons un cadre innovant, $T^3$, qui intègre la capacité d'inférence des LLM à la traversée d'arbres. $T^3$ améliore la précision de la génération de solutions de réparation candidates et fournit des indications utiles pour la sélection d'échantillons et l'optimisation des stratégies de réparation dans les tâches APR, créant ainsi un cadre puissant pour un débogage automatique efficace.