[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

BARNN: una red neuronal autorregresiva y recurrente bayesiana

Created by
  • Haebom

Autor

Darío Coscia, Max Welling, Nicola Demo, Gianluigi Rozza

Describir

En este artículo, proponemos una Red Neuronal Autorregresiva y Recurrente Bayesiana (BARNN) para abordar la falta de gestión de la incertidumbre en las Redes Autorregresivas y Recurrentes convencionales. Basada en el método de deserción variacional, BARNN proporciona una forma sistemática de convertir modelos convencionales en versiones bayesianas. En particular, al introducir el prior de Mezclas Variacionales de Posteriores Temporales (tVAMP), permite una inferencia bayesiana eficiente y bien calibrada incluso en redes neuronales recurrentes a gran escala. Mediante extensos experimentos de modelado de EDP y generación de moléculas, demostramos que BARNN no solo alcanza una precisión comparable o superior a la de los métodos convencionales, sino que también destaca en la cuantificación de la incertidumbre y el modelado de dependencias a largo plazo.

Takeaways, Limitations

Takeaways:
Un nuevo método para resolver el problema de incertidumbre de las redes neuronales autorregresivas y recurrentes
Proporcionar un método de inferencia bayesiano eficiente basado en la deserción variacional
Mejora del modelado de dependencia a largo plazo y la cuantificación de la incertidumbre utilizando tVAMP a priori
Sugiere potencial para mejorar el rendimiento en una variedad de aplicaciones científicas, incluido el modelado de PDE y la generación de moléculas.
Limitations:
Se necesita más investigación sobre el rendimiento de generalización del método propuesto.
Se necesitan experimentos adicionales en diferentes conjuntos de datos y modelos.
Se necesitan más investigaciones sobre la configuración óptima de los parámetros de tVAMP antes
Es necesario considerar los costos computacionales
👍