Dans cet article, nous proposons un nouvel algorithme d'optimisation, la descente de gradient perturbée la plus raide (SPGD), pour surmonter les limites de la descente de gradient conventionnelle. SPGD évite efficacement les minima locaux, les points de selle et les régions planes en combinant la descente de gradient avec un échantillonnage périodique uniforme des perturbations. Il fonctionne en générant des solutions candidates et en les comparant à la solution actuelle afin de sélectionner la solution présentant la plus grande différence de pertes. Nous démontrons l'efficacité de SPGD sur un problème de placement de pièces 3D (problème NP-difficile) et montrons qu'il surpasse quatre algorithmes conventionnels. En particulier, son efficacité est remarquable sur les surfaces de réponse avec des terrains complexes et les problèmes d'optimisation continue non convexe multidimensionnelle. Nous confirmons sa supériorité dans les environnements d'optimisation complexes par une analyse comparative avec des fonctions de référence 2D.