Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo. La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro. Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.
Este artículo aborda el reto de recuperar la estructura de los modelos de grafos causales a partir de datos observacionales, una tarea crucial, aunque compleja, para el descubrimiento causal en escenarios científicos. El descubrimiento causal existente, específico de dominio, se basa en la validación de expertos o el análisis previo para mejorar la fiabilidad, pero se ve limitado por la falta de recursos especializados. Este artículo demuestra el potencial de los modelos de lenguaje a gran escala (LLM) para servir como expertos autónomos que guíen el aprendizaje estructural basado en datos. Sin embargo, la inexactitud de la inferencia basada en LLM dificulta su integración en el descubrimiento causal. Para abordar esto, proponemos un marco de descubrimiento causal basado en LLM con tolerancia a fallos. El mecanismo con tolerancia a fallos está diseñado con tres aspectos en mente: Durante el proceso de inferencia basado en LLM, una estrategia de incitación centrada en la precisión restringe el análisis causal a un rango fiable. A continuación, la transferencia de conocimiento a estructura alinea las afirmaciones causales derivadas de los LLM con las interacciones causales estructurales. Durante el proceso de aprendizaje estructural, la inexactitud previa se aborda equilibrando el ajuste a los datos con la adherencia a la información previa derivada de los LLM. La evaluación de ocho estructuras causales del mundo real demuestra que el enfoque propuesto, basado en LLM, mejora el descubrimiento causal basado en datos y es robusto ante información previa inexacta basada en LLM. El código se encuentra en https://github.com/tyMadara/LLM-CD .
Takeaways: Proponemos un marco de descubrimiento causal con tolerancia a fallos que utiliza LLM para mejorar la precisión y la eficiencia del descubrimiento causal basado en datos. Validamos la eficacia y robustez del método propuesto utilizando conjuntos de datos reales.
•
Limitations: El rendimiento del marco propuesto depende del rendimiento del LLM, y aún pueden producirse errores debido a inferencias inexactas del LLM. Se requiere más investigación para determinar su capacidad de generalización en diversos dominios y estructuras causales complejas. El rendimiento puede variar según el tipo y el tamaño del LLM utilizado.