Les systèmes d'évaluation par les pairs en apprentissage automatique sont sérieusement menacés par l'augmentation rapide du nombre de soumissions. Cet article soutient que les systèmes d'évaluation par les pairs assistés par l'IA devraient être une priorité en matière de recherche et d'infrastructure. Nous préconisons un écosystème complet, augmenté par l'IA, qui exploite les grands modèles de langage (LLM) non pas comme substituts au jugement humain, mais comme collaborateurs sophistiqués pour les auteurs, les évaluateurs et les AC. Nous proposons des rôles spécifiques pour l'IA, notamment la vérification des faits, l'orientation des performances des évaluateurs, le soutien à l'amélioration de la qualité pour les auteurs et l'aide à la prise de décision des AC. Nous soutenons que le développement de tels systèmes dépend de l'accès à des données de processus d'évaluation par les pairs de plus en plus granulaires, structurées et issues de sources éthiques, et nous abordons les plans de recherche et les défis techniques et éthiques importants liés au développement et à la validation des assistants d'IA.