Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Oranits : attribution de missions et déchargement de tâches dans un ITS basé sur Open RAN à l'aide de l'apprentissage métaheuristique et du renforcement profond

Created by
  • Haebom

Auteur

Ngoc Hung Nguyen, Nguyen Van Thieu, Quang-Trung Luu, Anh Tuan Nguyen, Senura Wanasekara, Nguyen Cong Luong, Fatemeh Kavehmadavani, Van-Dinh Nguyen

Contour

Cet article aborde le problème de l'attribution de missions et du déchargement de tâches, où les véhicules autonomes utilisent l'informatique mobile de périphérie pour effectuer un traitement efficace dans un système de transport intelligent (STI) basé sur un RAN ouvert. Les études existantes présentent des limites, notamment l'absence de prise en compte des interdépendances entre missions et du coût du déchargement des tâches vers des serveurs périphériques, ce qui conduit à des prises de décision sous-optimales. Pour remédier à ces limites, cet article propose Oranits, un nouveau modèle système qui optimise les performances grâce à la coopération des véhicules tout en prenant explicitement en compte les dépendances entre missions et les coûts de déchargement. Pour y parvenir, nous développons d'abord un algorithme de calcul évolutif basé sur des métaheuristiques appelé Chaotic Gaussian-Based Global ARO (CGG-ARO) comme référence pour l'optimisation au sein d'un seul emplacement. Ensuite, nous concevons un cadre d'apprentissage par renforcement appelé Multi-Agent Double-Deep Q-Network (MA-DDQN) qui intègre des mécanismes de coordination multi-agents et de sélection multi-actions afin de réduire le temps d'attribution des missions et d'améliorer l'adaptabilité par rapport aux méthodes de référence. Des résultats de simulation approfondis montrent que CGG-ARO améliore le nombre de missions terminées et le bénéfice global d'environ 7,1 % et 7,7 % respectivement, tandis que MA-DDQN améliore le nombre de missions terminées et le bénéfice global de 11,0 % et 12,5 % respectivement. Ces résultats soulignent la capacité d'Oranits à permettre un traitement des tâches plus rapide, plus adaptatif et plus efficace dans les environnements ITS dynamiques.

Takeaways, Limitations

Takeaways:
Présentation d'une stratégie efficace d'allocation de mission et de déchargement des tâches qui prend en compte la dépendance de la mission et les coûts de déchargement dans un ITS basé sur Open RAN.
Les algorithmes CGG-ARO et MA-DDQN améliorent les taux d'achèvement des missions et les bénéfices globaux par rapport aux méthodes existantes.
Présentation d'une méthode efficace de traitement des tâches basée sur la coopération multi-agents et l'apprentissage par renforcement.
Vérification de la possibilité d'un traitement rapide et adaptatif des tâches dans un environnement ITS dynamique.
Limitations:
Dépendance à l'environnement de simulation : une vérification des performances dans un environnement ITS réel est requise.
Complexité algorithmique : des recherches supplémentaires sont nécessaires sur la complexité de calcul et le potentiel de traitement en temps réel de CGG-ARO et MA-DDQN.
Manque de prise en compte des contraintes de ressources du serveur Edge : il faut prendre en compte la puissance de traitement du serveur Edge et les contraintes de bande passante du réseau.
Manque de vérification de la robustesse face à diverses situations d'erreur (par exemple, défaillance de communication, défaillance de capteur)
👍