Cet article présente une architecture de responsabilisation et d'explicabilité pour les robots mobiles basés sur ROS afin de résoudre les problèmes de sécurité liés au déploiement d'agents autonomes dans des environnements interactifs avec l'humain. Cette architecture comprend un élément de responsabilisation, tel qu'une boîte noire dotée d'une fonctionnalité inviolable s'appuyant sur la technologie blockchain, et un élément générant des explications en langage naturel à l'aide d'un modèle de langage à grande échelle (LLM) basé sur les données de la boîte noire. En évaluant les indicateurs de responsabilisation et d'explicabilité à travers trois scénarios d'exploration d'agents autonomes, nous démontrons que cette approche permet d'obtenir des explications cohérentes, précises et compréhensibles malgré les difficultés d'utilisation d'agents autonomes en environnement réel.