Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Planification des requêtes par extraction pour une communication sémantique orientée vers les objectifs

Created by
  • Haebom

Auteur

Pouya Agheli, Nikolaos Pappas, Marios Kountouris

Contour

Cet article aborde le problème d'ordonnancement des requêtes pour la communication sémantique orientée vers les objectifs dans un système de mise à jour d'état basé sur le pull. Nous considérons un système dans lequel plusieurs agents de détection (AS) observent des sources caractérisées par divers attributs et, à partir des informations reçues, fournissent des mises à jour à plusieurs agents d'actionnement (AA) qui agissent pour atteindre des objectifs hétérogènes à une destination finale. Un concentrateur agit comme intermédiaire, interroge les AS pour obtenir des mises à jour sur les attributs observés et maintient une base de connaissances qui est ensuite diffusée aux AA. Ces derniers utilisent ces connaissances pour effectuer leurs tâches efficacement. Pour quantifier la valeur sémantique des mises à jour, nous introduisons la métrique de degré d'efficacité (GoE). De plus, nous intégrons la théorie des perspectives cumulatives (CPT) à l'analyse d'efficacité à long terme afin de prendre en compte la perception du risque et l'aversion aux pertes du système. À l'aide de ce cadre, nous calculons une politique d'ordonnancement sensible aux effets qui maximise la somme actualisée attendue du GoE total basé sur le CPT fourni par les mises à jour transmises, tout en respectant une contrainte de coût de requête donnée. Pour y parvenir, nous proposons une solution basée sur un modèle et reposant sur la programmation dynamique, ainsi qu'une solution sans modèle utilisant des algorithmes d'apprentissage par renforcement profond (DRL) de pointe. Nos résultats montrent que la planification sensible aux effets améliore significativement l'efficacité des mises à jour de communication par rapport aux méthodes de planification de référence, notamment dans les environnements soumis à des contraintes de coût strictes où une planification optimale des requêtes est cruciale pour les performances du système et son efficacité globale.

Takeaways, Limitations

Takeaways:
Un cadre efficace de planification des requêtes pour une communication sémantique orientée vers les objectifs
Intégration de la métrique Grade of Effect (GoE) avec la théorie de la perspective cumulative (CPT) pour prendre en compte la valeur sémantique et l'aversion au risque des mises à jour.
Présentation de solutions basées sur des modèles et sans modèle basées sur la programmation dynamique et l'apprentissage par renforcement profond.
Démontrer la supériorité de la planification sensible aux effets dans un environnement à coûts limités.
Limitations:
Des recherches supplémentaires sont nécessaires pour évaluer les performances et l’application du modèle proposé dans des environnements réels.
La généralisabilité à travers différents types d’agents de détection, d’agents d’actionnement et d’objectifs doit être vérifiée.
Des recherches supplémentaires sont nécessaires sur les paramètres et l’analyse de sensibilité du modèle CPT.
Les problèmes d’évolutivité et d’efficacité d’apprentissage des algorithmes DRL dans les espaces d’état de grande dimension doivent être résolus.
👍