Este artículo aborda el reto de la ingeniería de prompts para maximizar el potencial de los modelos lingüísticos a gran escala (LLM), especialmente en tareas que requieren evaluaciones subjetivas de calidad, donde es difícil definir objetivos de optimización explícitos. Si bien los métodos actuales de optimización automática de prompts no son eficaces para estos problemas, en este artículo presentamos DEEVO, un novedoso marco de optimización de prompts que aprovecha la evaluación basada en discusión y la selección basada en Elo. DEEVO explora el espacio discreto de prompts manteniendo la consistencia semántica mediante operaciones inteligentes de cruce y mutación estratégica. Simultáneamente, busca la mejora y la diversidad de prompts utilizando las calificaciones Elo como métrica de relevancia, y supera a los métodos existentes en problemas abiertos y cerrados sin retroalimentación de respuestas correctas. Al combinar las capacidades de inferencia de los LLM con la optimización adaptativa, contribuye a la mejora continua de los sistemas de IA sin una métrica predefinida.