Dans cet article, nous proposons une méthode efficace pour apprendre des représentations riches et groupées via une architecture d'intégration conjointe en apprentissage auto-supervisé (SSL). Étant donné que les méthodes SSL existantes n'exploitent pas la propriété de clustering, nous proposons l'auto-affectation de représentations (ReSA), une nouvelle méthode SSL à rétroaction positive qui exploite l'excellente propriété de clustering de la sortie de l'encodeur. ReSA améliore l'apprentissage de manière autodirigée en exploitant la propriété de clustering du modèle. Grâce à diverses expériences de référence, nous démontrons que les modèles pré-entraînés utilisant ReSA surpassent significativement les méthodes SSL de pointe existantes. Nous analysons également que ReSA améliore les performances de clustering aux niveaux micro et macro, produisant des représentations plus structurées et plus significatives.