Cet article présente une méthode d'intégration de données classiques dans l'espace de Hilbert à l'aide d'un codage quantique par blocs vectorisé, améliorant ainsi l'efficacité de modèles quantiques tels que le transformateur quantique (QT), qui remplace les mécanismes d'auto-attention classiques par des simulations de circuits quantiques. Les QT conventionnels s'appuient sur des circuits quantiques profondément paramétrés (PQC), sensibles au bruit QPU et souffrant d'une dégradation des performances. Dans cet article, nous proposons un transformateur quantique vectorisé (VQT), qui permet un apprentissage efficace via un encodeur quantique non linéaire vectorisé et prend en charge le calcul d'une matrice d'attention masquée idéale via une simulation quantique approximative. Cela permet une simulation de circuit quantique (QCS) efficace en termes de tirs et sans gradient, avec une surcharge d'échantillonnage classique réduite. En comparant la précision des simulations de circuits quantiques sur IBM et IonQ, et en comparant les tâches de traitement du langage naturel sur le QPU haute fidélité Kingston d'IBM, à la pointe de la technologie, nous démontrons des résultats compétitifs. Cette approche VQT robuste au bruit, à moyenne échelle et respectueuse du quantique présente une nouvelle architecture pour l'apprentissage automatique de bout en bout en informatique quantique.