Cet article soutient que, pour faire progresser la découverte scientifique basée sur l'IA, il est plus important de combler les lacunes d'abstraction, d'inférence et de réalité que d'augmenter la taille des modèles, les données et le temps de calcul. Nous définissons un système d'inférence actif pour la découverte scientifique basée sur l'IA comme un système qui (i) conserve une mémoire de recherche à long terme basée sur des modèles causaux autodirigés ; (ii) utilise un planificateur symbolique ou neurosymbolique avec des garde-fous bayésiens ; (iii) développe un graphe de connaissances persistant dans lequel la pensée génère de nouveaux nœuds conceptuels, l'inférence établit des limites causales et les interactions du monde réel suppriment les fausses connexions et renforcent les chemins éprouvés ; et (iv) améliore les représentations internes grâce à des interactions en boucle fermée avec des simulateurs haute fidélité et des laboratoires automatisés. En d'autres termes, nous décrivons une architecture dans laquelle la découverte se produit dans l'interaction entre des modèles internes qui permettent l'inférence contrefactuelle et la validation externe qui fonde les hypothèses sur la réalité. Nous soutenons également que le jugement humain est essentiel en tant que composante architecturale permanente plutôt qu'un tremplin temporaire en raison de l'ambiguïté inhérente et de l'incertitude sous-jacente des retours d'expériences et de simulations.