Los sistemas de revisión por pares en aprendizaje automático se ven seriamente amenazados por el rápido aumento del número de envíos. Este artículo argumenta que los sistemas de revisión por pares asistidos por IA deberían ser una prioridad de investigación e infraestructura. Abogamos por un ecosistema integral aumentado por IA que aproveche los grandes modelos de lenguaje (LLM) no como sustitutos del juicio humano, sino como colaboradores sofisticados para autores, revisores y asistentes de revisión (AC). Proponemos funciones específicas para la IA, como la verificación de datos, la orientación del desempeño de los revisores, el apoyo a la mejora de la calidad para los autores y el apoyo a la toma de decisiones de los AC. Argumentamos que el desarrollo de estos sistemas depende del acceso a datos del proceso de revisión por pares cada vez más granulares, estructurados y de origen ético, y analizamos los planes de investigación y los importantes desafíos técnicos y éticos para el desarrollo y la validación de asistentes de IA.