Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Exploration de l'intégration de grands modèles linguistiques dans les processus de maintenance des tests industriels

Created by
  • Haebom

Auteur

Jingxiong Liu, Ludvig Lemner, Linnea Wahlgren, Gregory Gay, Nasser Mohammadiha, Joakim Wennerberg

Contour

Cet article explore la prise en charge automatisée de la maintenance des tests (ajout, suppression ou modification de cas de test), une tâche coûteuse et laborieuse du processus de test logiciel. Nous étudions plus particulièrement comment soutenir la maintenance des tests en exploitant les modèles de langage à grande échelle (LLM) à travers une étude de cas chez Ericsson AB. Nous analysons le LLM pour prédire quand la maintenance des tests est nécessaire, quelles tâches il peut effectuer et les éléments à prendre en compte lors de son déploiement en environnement industriel. Nous proposons et démontrons une architecture multi-agents qui prédit les tests nécessitant une maintenance après des modifications du code source. En conclusion, cette étude améliore la compréhension théorique et pratique de l'application des LLM aux processus de maintenance des tests en milieu industriel.

Takeaways, Limitations_

Takeaways:
Il présente la possibilité de réduire les coûts et d’améliorer la qualité de la maintenance des tests logiciels en utilisant LLM.
Présente des considérations pratiques pour l’application du LLM dans un environnement industriel.
Nous proposons une architecture multi-agents qui prédit quels tests nécessitent une maintenance après des modifications du code source.
Limitations:
ÉTant donné qu’il s’agit d’une étude de cas ciblant Ericsson AB, la généralisabilité à d’autres environnements ou systèmes industriels peut être limitée.
Une évaluation plus approfondie des performances et de l’évolutivité de l’architecture multi-agents proposée est nécessaire.
Une validation supplémentaire de la précision et de la fiabilité du LLM est nécessaire.
👍