Cet article propose une analyse complète des attaques par extraction de modèles (AME) issues de la prolifération des plateformes d'apprentissage automatique en tant que service (MLaaS). Si les plateformes MLaaS ont facilité l'accès aux modèles d'apprentissage automatique avancés grâce à des API conviviales, elles ont également accru le risque d'AME, qui répliquent les fonctionnalités des modèles. Cet article présente une taxonomie des AME, analyse diverses techniques d'attaque et stratégies de défense, et met en évidence les limites des défenses existantes et les compromis entre utilité et sécurité des modèles. De plus, nous évaluons les AME dans divers environnements informatiques et abordons leurs implications techniques, éthiques, juridiques et sociales, ainsi que les orientations de recherche futures. Enfin, nous proposons un répertoire en ligne de la littérature connexe, constamment mise à jour.