Este artículo propone FLock, un marco descentralizado para el entrenamiento distribuido de modelos lingüísticos a gran escala (LLM). Si bien el aprendizaje federado (FL) tradicional es vulnerable a puntos únicos de fallo y ataques maliciosos desde servidores centralizados, FLock integra una capa de confianza basada en blockchain e incentivos económicos para proporcionar un protocolo de colaboración seguro y auditable entre participantes no confiables. Presentamos la primera validación empírica del ajuste fino de un LLM de 70B parámetros en un entorno seguro, multidominio y descentralizado, demostrando experimentalmente una reducción de más del 68 % en la tasa de éxito de ataques maliciosos y un rendimiento superior de generalización entre dominios en comparación con los modelos entrenados de forma independiente.