[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Renforcer la confiance dans les agents autonomes : une architecture pour la responsabilité et l'explicabilité grâce à la blockchain et aux grands modèles linguistiques

Created by
  • Haebom

Auteur

Laura Fernández -Becerra, Miguel Angel González -Santamarta, Angel Manuel Guerrero-Higueras, Francisco Javier Rodríguez -Lera, Vicente Matell et Olivera

Contour

Cet article présente une architecture de responsabilisation et d'explicabilité pour les robots mobiles basés sur ROS afin de résoudre les problèmes de sécurité liés au déploiement d'agents autonomes dans des environnements interactifs avec l'humain. Cette architecture comprend un élément de responsabilisation, tel qu'une boîte noire dotée d'une fonctionnalité inviolable s'appuyant sur la technologie blockchain, et un élément générant des explications en langage naturel à l'aide d'un modèle de langage à grande échelle (LLM) basé sur les données de la boîte noire. En évaluant les indicateurs de responsabilisation et d'explicabilité à travers trois scénarios d'exploration d'agents autonomes, nous démontrons que cette approche permet d'obtenir des explications cohérentes, précises et compréhensibles malgré les difficultés d'utilisation d'agents autonomes en environnement réel.

Takeaways, Limitations

Takeaways:
Nous présentons une nouvelle architecture qui combine blockchain et LLM pour améliorer la responsabilité et l'explicabilité des agents autonomes.
Fournit une description compréhensible et fiable du fonctionnement des agents autonomes dans des environnements réels.
Améliore la communication efficace entre les agents autonomes et les utilisateurs.
Contribue au développement de systèmes d’agents autonomes sûrs et fiables.
Limitations:
L’évaluation des performances de l’architecture présentée est limitée à un scénario spécifique, nécessitant des recherches supplémentaires sur sa généralisabilité.
Un examen plus approfondi est nécessaire concernant les problèmes de fiabilité et de biais dans le processus de génération de descriptions du LLM.
Il faut tenir compte de la dégradation des performances et de l’augmentation des coûts résultant de l’application de la technologie blockchain.
Des recherches supplémentaires sont nécessaires sur l’applicabilité et la généralisabilité à différents types d’agents et d’environnements autonomes.
👍