Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

$T^3$ : Réparation automatique de programmes basée sur des arbres multi-niveaux avec de grands modèles de langage

Created by
  • Haebom

Auteur

Quanming Liu, Xupeng Bu, Zhichao Yan, Ru Li

Contour

Cet article étudie l'application des modèles de langage à grande échelle (LLM) et des techniques de chaîne de pensée (CoT) à la réparation automatique de programmes (APR). Nous soulignons les limites des techniques CoT existantes dans leur application à la APR et proposons un cadre innovant, $T^3$, qui intègre la capacité d'inférence des LLM à la traversée d'arbres. $T^3$ améliore la précision de la génération de solutions de réparation candidates et fournit des indications utiles pour la sélection d'échantillons et l'optimisation des stratégies de réparation dans les tâches APR, créant ainsi un cadre puissant pour un débogage automatique efficace.

Takeaways, Limitations

Takeaways:
Un nouveau cadre $T^3$ dans le domaine de l'APR est présenté en utilisant les techniques LLM et CoT.
Amélioration de la précision de la génération de solutions de réparation candidates dans les tâches APR via $T^3$.
Fournit des conseils utiles sur l’optimisation de la sélection des échantillons et des stratégies de réparation.
Construire un framework puissant pour un débogage automatisé efficace.
Limitations:
L'article ne présente pas les performances réelles de $T^3$ et les résultats de l'analyse comparative avec d'autres techniques APR.
Des recherches supplémentaires sont nécessaires sur la généralisabilité et l’évolutivité du cadre $T^3$.
Une vérification supplémentaire de l’applicabilité et de l’efficacité de $T^3$ pour les bogues de programmes complexes est nécessaire.
👍