Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Vers un support décisionnel explicable utilisant des modèles neuronaux hybrides pour l'automatisation des terminaux logistiques

Created by
  • Haebom

Auteur

Riccardo D'Elia, Alberto Termine, Francesco Flammini

Contour

Cet article présente un nouveau cadre d'intégration de l'apprentissage profond (AP) à la modélisation de la dynamique des systèmes logistiques de transport (DS). Pour remédier au manque de pouvoir explicatif et à la faible fiabilité causale des modèles existants basés sur l'AP, nous proposons une approche hybride combinant interprétabilité conceptuelle, interprétabilité mécaniste et techniques d'apprentissage automatique causal avec l'AP. Cette approche construit un modèle de réseau neuronal utilisant des variables sémantiquement explicites et exploitables, préservant ainsi la base causale et la transparence des modèles DS existants. Nous validons cette approche en l'appliquant à une étude de cas réelle issue du projet européen AutoMoTIF (aide à la décision, automatisation et optimisation pilotées par les données d'un terminal logistique multimodal), démontrant le rôle des méthodes symboliques neuronales pour combler le fossé entre les modèles prédictifs de type boîte noire et l'aide à la décision critique dans l'environnement dynamique complexe des systèmes cyberphysiques industriels basés sur l'IoT.

Takeaways, Limitations

Takeaways:
Nous présentons un nouveau cadre qui garantit le pouvoir explicatif et la fiabilité causale des modèles de dynamique des systèmes tout en maintenant la précision prédictive et l'évolutivité de l'apprentissage profond.
Démontrer l’efficacité d’une approche hybride qui intègre l’interprétabilité basée sur les concepts, l’interprétabilité mécaniste et les techniques d’apprentissage automatique causal.
Contribuer au développement de systèmes d’aide à la décision basés sur les données dans des environnements dynamiques complexes.
Présentation de la possibilité d'un fonctionnement efficace et d'une optimisation des systèmes cyberphysiques industriels basés sur l'IoT.
Limitations:
Une vérification plus approfondie de l’applicabilité pratique et de la généralisabilité du cadre proposé est nécessaire.
Des études d’applicabilité sont nécessaires pour différents types de systèmes logistiques de transport.
La généralisabilité des résultats, qui sont limités à l’étude de cas spécifique du projet AutoMoTIF, doit être examinée.
👍