Cet article propose l'apprentissage fédéré basé sur le champ (FBFL), une nouvelle méthode d'apprentissage fédéré (FL) pour l'entraînement de modèles d'apprentissage automatique dans des environnements distribués. Pour remédier à l'évolutivité et à la dégradation des performances des FL existants, notamment celles causées par des distributions de données non indépendantes et identiquement distribuées (non-IID), FBFL s'appuie sur la macroprogrammation et la coordination de champ. Plus précisément, il atténue le problème des données non-IID en effectuant une personnalisation via l'élection de leaders spatialement distribués et construit une structure hiérarchique auto-organisée pour remédier aux goulots d'étranglement et aux points de défaillance uniques dans les architectures centralisées. Les résultats expérimentaux obtenus avec les jeux de données MNIST, FashionMNIST et Extended MNIST démontrent que FBFL offre des performances similaires à FedAvg dans des conditions de données IID et surpasse les méthodes de pointe existantes telles que FedProx et Scaffold dans des conditions de données non-IID. De plus, nous démontrons la robustesse de l'architecture hiérarchique auto-organisée de FBFL face aux pannes de serveur.