Dans cet article, nous proposons un nouveau cadre pour résoudre le problème de biais sémantique de domaine dans la recommandation séquentielle inter-domaines à zéro coup (ZCDSR). Les modèles ZCDSR existants ont amélioré le transfert de connaissances inter-domaines grâce à l'utilisation de modèles linguistiques à grande échelle (LLM), mais leur précision est limitée en raison de biais sémantiques causés par les différences de vocabulaire et de contenu entre les domaines. Dans cet article, nous abordons ce problème en améliorant l'alignement inter-domaines aux niveaux item et séquentiel. Au niveau item, nous introduisons une fonction de perte de généralisation pour aligner les intégrations d'items inter-domaines afin de garantir la similarité entre les domaines tout en préservant les caractéristiques uniques des items de chaque domaine. Au niveau séquentiel, nous développons une méthode pour regrouper les séquences d'utilisateurs du domaine source et transférer les schémas comportementaux des utilisateurs par agrégation basée sur l'attention afin d'adapter dynamiquement les intégrations d'utilisateurs lors de l'inférence des domaines cibles. Ainsi, nous permettons une recommandation à zéro coup efficace sans interaction avec le domaine cible.