Cet article propose FLock, un framework décentralisé pour l'apprentissage distribué de modèles de langage à grande échelle (MLH). Alors que l'apprentissage fédéré (LF) traditionnel est vulnérable aux points de défaillance uniques et aux attaques malveillantes provenant de serveurs centralisés, FLock intègre une couche de confiance basée sur la blockchain et des incitations économiques pour fournir un protocole de collaboration sécurisé et vérifiable entre participants non fiables. Nous présentons la première validation empirique du réglage fin d'un LLM à 70 000 paramètres dans un environnement sécurisé, multi-domaines et décentralisé, démontrant expérimentalement une réduction de plus de 68 % du taux de réussite des attaques malveillantes et des performances de généralisation inter-domaines supérieures à celles des modèles entraînés indépendamment.