Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

Búsqueda de equivalencias menos codiciosa

Created by
  • Haebom

Autor

Adiba Ejaz, Elias Bareinboim

Describir

La Búsqueda de Equivalencia Menos Codiciosa (LGES) es una modificación del algoritmo de Búsqueda de Equivalencia Codiciosa (GES), un algoritmo tradicional basado en puntuaciones para el descubrimiento de relaciones causales a partir de datos observacionales. LGES aborda parcialmente dos problemas prácticos: el coste computacional y la precisión de muestras finitas, manteniendo al mismo tiempo las garantías teóricas de GES. Al modificar el paso codicioso de GES para evitar la inserción de aristas entre variables cuyas puntuaciones implican cierta independencia condicional, logra una aceleración de hasta 10 veces y una reducción significativa de los errores estructurales. Además, LGES puede utilizar supuestos previos para guiar la búsqueda y corregir supuestos inconsistentes con los datos, y puede utilizar datos de intervención para mejorar las clases de equivalencia de observación aprendidas. Se ha demostrado que recupera clases de equivalencia verdaderas de datos de observación e intervención incluso bajo supuestos previos erróneos. Los resultados experimentales muestran que LGES supera a GES y otros algoritmos de referencia en términos de velocidad, precisión y robustez ante supuestos incorrectos.

Takeaways, Limitations

Takeaways:
Presentamos el algoritmo LGES, que resuelve parcialmente los problemas de costo computacional y precisión de muestra finita de GES.
Mejora de velocidad de hasta 10 veces y errores estructurales reducidos en comparación con GES.
Capacidad para aprovechar suposiciones previas y corregir suposiciones que contradicen los datos.
Capacidad de mejorar las clases de equivalencia de observación aprendidas aprovechando los datos de intervención.
La recuperación de la clase de equivalencia real es posible incluso bajo suposiciones previas erróneas.
Supera a GES y otros algoritmos de referencia en términos de velocidad, precisión y robustez ante suposiciones incorrectas.
Limitations:
El problema de las muestras finitas aún no está completamente resuelto (parcialmente resuelto).
El rendimiento puede verse afectado por la precisión de suposiciones previas (pero tiene la capacidad de corregir suposiciones incorrectas).
La complejidad del algoritmo puede limitar su aplicación a grandes conjuntos de datos (aunque esto no se menciona en el artículo).
👍