Avec les progrès de l'intelligence artificielle (IA) et l'application croissante des modèles de langage à grande échelle (LLM) à la résolution de problèmes mathématiques, cet article propose OR-LLM-Agent, un framework d'agent IA pour la résolution automatisée de problèmes de recherche opérationnelle (RO) basé sur des LLM avec des capacités d'inférence. OR-LLM-Agent décompose le processus de résolution de problèmes en trois étapes : modélisation mathématique, génération de code et débogage, avec des sous-agents dédiés pour chaque étape permettant une inférence plus ciblée. De plus, nous avons construit l'ensemble de données BWOR, un ensemble de données de résolution de problèmes de RO, afin d'évaluer les capacités de résolution de problèmes de RO des LLM. Les résultats expérimentaux montrent qu'OR-LLM-Agent utilisant DeepSeek-R1 surpasse les méthodes de pointe existantes telles que GPT-o3, Gemini 2.5 Pro, DeepSeek-R1 et ORLM d'au moins 7 % en termes de précision, démontrant l'efficacité de la décomposition des tâches pour la résolution de problèmes de RO. Nous avons cherché à surmonter les limites des méthodes existantes reposant sur des stratégies d'ingénierie rapide ou de réglage fin en implémentant un cadre d'agents basé sur des LLM inférentiels. Alors que les benchmarks existants (NL4OPT, MAMO, IndustryOR) ont montré que les LLM inférentiels sont parfois moins performants que les LLM non inférentiels de la même famille de modèles, le nouvel ensemble de données BWOR présenté montre que les capacités des modèles peuvent être évaluées de manière plus cohérente et plus discriminante.