En este artículo, presentamos OR-LLM-Agent, un enfoque novedoso para aplicar modelos de lenguaje a gran escala (LLM) a la resolución de problemas de investigación operativa (IO). A diferencia de los métodos existentes que se basan en ingeniería rápida o estrategias de ajuste fino, OR-LLM-Agent descompone el problema en tres etapas: modelado matemático, generación de código y depuración basada en LLM con capacidades de inferencia. Cada etapa es gestionada por un subagente especializado, lo que permite una inferencia más efectiva. Además, señalamos las limitaciones de los benchmarks existentes como NL4OPT, MAMO e IndustryOR, y construimos un conjunto de datos de alta calidad, BWOR, para una evaluación más confiable del rendimiento de los LLM. Los resultados experimentales muestran que OR-LLM-Agent supera a los métodos de vanguardia existentes como GPT-o3, Gemini 2.5 Pro y ORLM en al menos un 7% en términos de precisión. Esto demuestra la efectividad de la descomposición de tareas para resolver problemas de IO.