Este artículo señala que el debate sobre la inteligencia artificial general (IAG) está lleno de exageraciones y especulaciones, como una prueba de Rorschach, y argumenta que solo la investigación científica a largo plazo puede resolver el debate sobre la IAG. Define la inteligencia como capacidad adaptativa y define la IAG como un científico artificial, y explica dos herramientas básicas utilizadas para construir sistemas adaptativos: exploración y aproximación basadas en la lección amarga de Sutton. Compara y analiza las fortalezas y debilidades de varios sistemas como o3, AlphaGo, AERA, NARS e Hyperon, así como arquitecturas híbridas, y clasifica los metaenfoques para construir IAG en tres categorías: maximización de escala, maximización de simp y maximización de restricciones débiles (w-maxing), y presenta ejemplos como AIXI, el principio de energía libre y el agrandamiento de modelos de lenguaje. En conclusión, sostiene que la aproximación basada en la maximización de escala es dominante, pero la AGI se logrará mediante una fusión de varias herramientas y metaenfoques, y señala que la muestra y la eficiencia energética son cuellos de botella en el desarrollo de AGI debido a las mejoras actuales del hardware.