Cet article propose un nouveau cadre de prédiction d'intégration conjointe (JPEB-GSSL) pour remédier à l'inefficacité de calcul, à la dépendance des cibles contrastives et à l'effondrement des représentations dans l'apprentissage auto-supervisé de graphes (SSL). Nous surmontons les limites des méthodes existantes (reconstruction de caractéristiques, échantillonnage de la parole et recours à des décodeurs complexes) et présentons une architecture de prédiction d'intégration conjointe sans contraste et invariante de vue, qui préserve les informations sémantiques et structurelles sans cibles contrastives ni échantillonnage de la parole. De plus, nous introduisons un terme cible sémantique qui intègre des pseudo-étiquettes dérivées de modèles de mélange gaussien (GMM) pour évaluer la contribution des caractéristiques latentes, améliorant ainsi la discriminabilité des nœuds. En exploitant les relations mono-contextuelles et multi-cibles entre les sous-graphes, nous surpassons les méthodes SSL de graphes de pointe existantes sur divers benchmarks. Cela fournit un paradigme efficace en termes de calcul et résistant à l'effondrement pour combiner les caractéristiques spatiales et sémantiques des graphes.