Cet article étudie la situation de l'apprentissage par renforcement multi-agents (MARL) où les bénéfices découlent des actions cachées d'autres agents (dons cachés). Plus précisément, dans un environnement de grille où les agents utilisent des clés partagées pour ouvrir leurs portes respectives et obtenir des récompenses, nous soulignons que l'acte de placer une clé pour un autre agent (don caché) est essentiel pour les récompenses collectives, mais cet acte est invisible pour les autres agents. Les résultats expérimentaux montrent que plusieurs algorithmes MARL de pointe ne parviennent pas à obtenir ces récompenses collectives, et même les algorithmes de gradient de politique indépendants et sans modèle échouent sans information sur les actions cachées. Cependant, nous démontrons que fournir aux agents indépendants des informations sur leur propre historique comportemental ou ajouter un terme de compensation inspiré des approches axées sur l'apprentissage peut améliorer le taux de réussite de l'obtention de récompenses collectives.