Dans cet article, nous proposons un nouvel algorithme d'optimisation d'ordre zéro (ZO), FZOO, pour résoudre le goulot d'étranglement de la mémoire GPU qui survient lors du réglage fin des grands modèles de langage (LLM). Alors que l'algorithme d'optimisation ZO existant, MeZO, nécessite de nombreuses passes avant pour converger, FZOO réduit considérablement le nombre de passes avant grâce à l'estimation unilatérale par lots, l'adaptation de la taille des pas basée sur l'écart type, la perturbation vectorielle aléatoire Rademacher et le traitement parallèle CUDA. Les résultats expérimentaux sur divers modèles et 11 tâches, dont RoBERTa-large, OPT, Phi-2 et Llama3, montrent que FZOO améliore la précision de 3 % en moyenne tout en réduisant le nombre de passes avant de 3 fois par rapport à MeZO. Dans RoBERTa-large, il obtient une amélioration de la précision de 5,6 % et une réduction de 18 fois du nombre de passes avant, affichant une vitesse de convergence similaire à celle d'Adam. De plus, nous prouvons théoriquement l'équivalence formelle et la garantie de convergence avec la règle de mise à jour SGD régularisée, et permettons de plus grandes économies de mémoire grâce à une intégration transparente avec la technique PEFT.