Cet article examine en détail le mécanisme d'attention de l'analyse du signal d'électroencéphalographie (EEG), devenu un élément essentiel des applications d'interface cerveau-machine (ICO) avec le développement de l'apprentissage profond. Nous abordons les applications d'ICO basées sur l'EEG, en nous concentrant plus particulièrement sur les mécanismes d'attention conventionnels, les mécanismes d'attention basés sur Transformer, les stratégies d'intégration et la fusion de données multimodales. En capturant les variations de l'EEG dans les canaux temporels, fréquentiels et spatiaux, nous améliorons l'extraction de caractéristiques, l'apprentissage des représentations et la robustesse des modèles. Les mécanismes d'attention conventionnels sont généralement intégrés aux réseaux neuronaux convolutifs et récurrents, et l'auto-attention multi-têtes basée sur Transformer excelle dans la capture des dépendances à longue portée. Au-delà de l'analyse monomodale, les mécanismes d'attention améliorent les applications EEG multimodales, permettant une fusion efficace entre l'EEG et d'autres données physiologiques ou sensorielles. Enfin, nous abordons les défis actuels et les tendances émergentes de la modélisation EEG basée sur l'attention, et suggérons des orientations futures pour le développement de la technologie d'ICO.