Cet article traite de la conception d'un système apprenant efficacement des fonctions supportant la « généralisation radicale », l'une des principales tâches de l'utilisation des réseaux de neurones en intelligence artificielle et en modélisation des fonctions cognitives. La clé de la généralisation radicale réside dans la capacité à découvrir et à implémenter des fonctions symétriques. Dans cet article, nous étudions l'« addition de base » comme exemple typique de généralisation radicale utilisant la symétrie. Nous présentons une analyse de la fonction de retenue, caractéristique fondamentale de l'addition de base, par la théorie des groupes, et suggérons des alternatives pour différentes fonctions de retenue pour une base donnée, ainsi qu'une méthode permettant de les mesurer quantitativement. Nous étudions le biais inductif dans l'apprentissage symétrique des réseaux de neurones en entraînant ces derniers à l'aide de différentes fonctions de retenue et en comparant l'efficacité et la vitesse d'apprentissage en fonction de la structure de la fonction de retenue. Par conséquent, nous constatons que même des réseaux de neurones simples peuvent réaliser une généralisation radicale en utilisant des formats d'entrée et des fonctions de retenue appropriés, et que le potentiel d'apprentissage est étroitement corrélé à la structure de la fonction de retenue. Enfin, nous discutons des implications de ces résultats pour les sciences cognitives et l'apprentissage automatique.