Estudiamos la manipulación de recompensas del líder en un juego de Stackelberg multiobjetivo repetido. Los líderes pueden influir estratégicamente en las respuestas óptimas deterministas de sus seguidores, por ejemplo, ofreciendo una parte de su propia recompensa. Se asume que las funciones de utilidad de los seguidores (que representan sus preferencias por múltiples objetivos) son lineales, aunque desconocidas, y sus parámetros de ponderación deben inferirse mediante interacciones. Esto plantea al líder una tarea secuencial de toma de decisiones, que requiere un equilibrio entre la inducción de preferencias y la maximización inmediata de la utilidad. Este estudio formaliza este problema y propone una política de manipulación basada en la utilidad esperada (UE) y la utilidad esperada a largo plazo (UE larga). Esta política guía las acciones y la elección de incentivos del líder, permitiéndole equilibrar las ganancias a corto plazo con los impactos a largo plazo. Demostramos que la UE larga converge a una manipulación óptima bajo interacciones infinitamente repetidas. Los resultados experimentales en un entorno de referencia demuestran que el método propuesto mejora la utilidad acumulada del líder y promueve resultados mutuamente beneficiosos, incluso sin negociación explícita ni conocimiento previo de las funciones de utilidad de los seguidores.