Con el avance de la inteligencia artificial (IA) y la creciente aplicación de modelos de lenguaje a gran escala (LLM) a la resolución de problemas matemáticos, este documento propone OR-LLM-Agent, un marco de agente de IA para la resolución automatizada de problemas de investigación operativa (IO) basado en LLM con capacidades de inferencia. OR-LLM-Agent descompone el proceso de resolución de problemas en tres etapas: modelado matemático, generación de código y depuración, con subagentes dedicados para cada etapa que permiten una inferencia más enfocada. Además, construimos el conjunto de datos BWOR, un conjunto de datos de resolución de problemas de IO, para evaluar las capacidades de resolución de problemas de IO de los LLM. Los resultados experimentales muestran que OR-LLM-Agent que utiliza DeepSeek-R1 supera los métodos de vanguardia existentes como GPT-o3, Gemini 2.5 Pro, DeepSeek-R1 y ORLM en al menos un 7% en precisión, lo que demuestra la efectividad de la descomposición de tareas para la resolución de problemas de IO. Nuestro objetivo fue superar las limitaciones de los métodos existentes basados en ingeniería rápida o estrategias de ajuste fino mediante la implementación de un marco de agentes basado en LLM basados en inferencia. Si bien los estudios de referencia existentes (NL4OPT, MAMO, IndustryOR) han demostrado que los LLM inferenciales a veces tienen un rendimiento inferior al de los LLM no inferenciales de la misma familia de modelos, el nuevo conjunto de datos BWOR muestra que las capacidades del modelo pueden evaluarse de forma más consistente y discriminante.