Cet article aborde l'apprentissage relationnel par petites séquences, qui effectue une inférence relationnelle sur des graphes de connaissances (GC) à partir d'un nombre limité d'exemples d'apprentissage. Alors que les méthodes existantes se concentraient sur l'exploitation d'informations relationnelles spécifiques, la richesse sémantique inhérente aux GC a été négligée. Pour y remédier, nous proposons un nouveau cadre de méta-apprentissage par invites (PromptMeta) qui intègre harmonieusement méta-sémantique et informations relationnelles. PromptMeta présente deux innovations clés : (1) un pool d'invites méta-sémantiques (MSP) qui apprennent et intègrent une méta-sémantique de haut niveau, permettant un transfert de connaissances efficace et une adaptation aux relations rares et émergentes ; et (2) des jetons de fusion apprenables qui combinent dynamiquement méta-sémantique et informations relationnelles spécifiques à la tâche, adaptées à la tâche par petites séquences. Les deux composants sont optimisés conjointement au sein du cadre de méta-apprentissage, avec les paramètres du modèle. Des expériences et analyses approfondies sur deux jeux de données GC réels démontrent l'efficacité de PromptMeta pour s'adapter à de nouvelles relations avec des données limitées.