Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

SuperARC: una prueba agnóstica para inteligencia limitada, general y superinteligencia basada en los principios de compresión recursiva y probabilidad algorítmica

Created by
  • Haebom

Autor

Alberto Hern andez-Espinosa, Luan Ozelim, Felipe S. Abrah ao, Hector Zenil

Describir

Este artículo presenta una prueba abierta basada en probabilidad algorítmica que evita la contaminación de los parámetros de referencia en la evaluación cuantitativa de modelos de vanguardia en relación con las afirmaciones de inteligencia artificial general (IAG) y superinteligencia (IAE). A diferencia de las pruebas existentes, no se basa en métodos de compresión estadística como GZIP o LZW, que están estrechamente relacionados con la entropía de Shannon y no pueden evaluar más que la simple coincidencia de patrones. La prueba desafía a la IA, y en particular a la LLM, en relación con características fundamentales de la inteligencia, como la síntesis y la generación de modelos en el contexto de problemas inversos. Argumentamos que las métricas para la planificación predictiva basadas en la abstracción e inducción de modelos (inferencia bayesiana óptima) pueden proporcionar un marco robusto para evaluar la inteligencia, incluyendo la inteligencia natural (humana y animal), la IA estrecha, la IAG y la IAE. Observamos que las versiones del modelo LLM son frágiles e incrementales, principalmente como resultado de la memorización, y que el progreso tiende a estar impulsado principalmente por el tamaño de los datos de entrenamiento. Comparamos nuestros resultados con un enfoque neurosimbólico híbrido que, en teoría, garantiza inteligencia universal basada en los principios de probabilidad algorítmica y complejidad de Kolmogorov. En una prueba de concepto para secuencias binarias cortas, demostramos que este método supera a LLM. Demostramos que la compresión es directamente proporcional a la capacidad predictiva del sistema; es decir, cuanto mejor prediga el sistema, mejor comprimirá, y cuanto mejor comprima, mejor predecirá. Estos resultados refuerzan las sospechas sobre las limitaciones fundamentales de LLM, demostrándolo como un sistema optimizado para el reconocimiento competente del lenguaje humano.

Takeaways, Limitations

Takeaways:
Presentamos una nueva prueba de referencia para la evaluación de AGI/ASI
Revela las limitaciones del LLM (centrado en la memorización, optimizando el reconocimiento de la competencia lingüística humana)
Prueba de la correlación entre la compresión y la capacidad predictiva
Demostrando la superioridad de un enfoque neurosimbólico híbrido
Limitations:
La prueba de concepto se limita a secuencias binarias cortas. Es necesario verificar la escalabilidad a conjuntos de datos más complejos.
Se necesita más investigación para determinar la versatilidad y generalización de la prueba propuesta.
Se necesita más investigación sobre la implementación práctica y la escalabilidad de los enfoques de símbolos neuronales híbridos.
👍