Dans cet article, nous présentons un système multi-agents accessible multimodal (MATE) pour répondre aux problématiques d'accessibilité. MATE aide les utilisateurs présentant divers handicaps à interagir avec les environnements numériques en effectuant des transformations modales adaptées à leurs besoins, comme la conversion d'images en parole pour les malvoyants. Il prend en charge divers modèles, des appels d'API LLM aux classificateurs d'apprentissage automatique personnalisés, et préserve la confidentialité et la sécurité grâce à une exécution locale. De plus, il extrait des tâches de transformation modale précises à partir des saisies utilisateur grâce au modèle ModCon-Task-Identifier, et offre une assistance en temps réel grâce à son intégration aux technologies institutionnelles telles que les services de santé. Nous avons rendu le code et les données accessibles en les rendant accessibles sur GitHub.