Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

OR-LLM-Agent : Automatisation de la modélisation et de la résolution des problèmes d'optimisation de la recherche opérationnelle grâce au raisonnement LLM

Created by
  • Haebom

Auteur

Bowen Zhang, Pengcheng Luo, Genke Yang, Boon-Hee Soong, Chau Yuen

Contour

Avec les progrès de l'intelligence artificielle (IA) et l'application croissante des modèles de langage à grande échelle (LLM) à la résolution de problèmes mathématiques, cet article propose OR-LLM-Agent, un framework d'agent IA pour la résolution automatisée de problèmes de recherche opérationnelle (RO) basé sur des LLM avec des capacités d'inférence. OR-LLM-Agent décompose le processus de résolution de problèmes en trois étapes : modélisation mathématique, génération de code et débogage, avec des sous-agents dédiés pour chaque étape permettant une inférence plus ciblée. De plus, nous avons construit l'ensemble de données BWOR, un ensemble de données de résolution de problèmes de RO, afin d'évaluer les capacités de résolution de problèmes de RO des LLM. Les résultats expérimentaux montrent qu'OR-LLM-Agent utilisant DeepSeek-R1 surpasse les méthodes de pointe existantes telles que GPT-o3, Gemini 2.5 Pro, DeepSeek-R1 et ORLM d'au moins 7 % en termes de précision, démontrant l'efficacité de la décomposition des tâches pour la résolution de problèmes de RO. Nous avons cherché à surmonter les limites des méthodes existantes reposant sur des stratégies d'ingénierie rapide ou de réglage fin en implémentant un cadre d'agents basé sur des LLM inférentiels. Alors que les benchmarks existants (NL4OPT, MAMO, IndustryOR) ont montré que les LLM inférentiels sont parfois moins performants que les LLM non inférentiels de la même famille de modèles, le nouvel ensemble de données BWOR présenté montre que les capacités des modèles peuvent être évaluées de manière plus cohérente et plus discriminante.

Takeaways, Limitations

Takeaways:
Nous démontrons expérimentalement que la précision de la résolution des problèmes OR peut être améliorée grâce à une stratégie de décomposition des tâches basée sur l'inférence LLM.
Nous présentons un nouvel ensemble de données OR, BWOR, qui complète les limites des repères d’évaluation LLM existants.
Nous présentons l'efficacité d'OR-LLM-Agent, un nouveau cadre d'agent IA pour résoudre les problèmes OR.
Limitations:
Des recherches supplémentaires sont nécessaires sur l’échelle et la diversité de l’ensemble de données BWOR.
Il est nécessaire d’évaluer les performances de généralisation d’OR-LLM-Agent pour différents types de problèmes OR.
Il y a place à l’amélioration dans la manière dont les sous-agents interagissent et communiquent entre eux.
Une vérification des applications et des performances pour les problèmes industriels du monde réel est requise.
👍