Cet article propose un nouveau cadre hybride d'apprentissage profond permettant d'extraire avec précision les informations clés des dessins techniques 2D. Pour résoudre le problème des techniques OCR conventionnelles générant des résultats non structurés en raison de dispositions complexes et de symboles superposés, nous utilisons une approche hybride intégrant un modèle de détection de boîte englobante orientée (OBB) et un modèle d'analyse de documents basé sur un transformateur (Donut). Grâce à YOLOv11, nous détectons neuf catégories principales : GD&T, tolérances générales, dimensions, matériaux, annotations, rayons, rugosité de surface, filetages et cartouches, et affinons Donut pour générer une sortie JSON structurée. Nous comparons deux stratégies d'affinement : un modèle unique pour toutes les catégories et un modèle spécifique à chaque catégorie. Nous constatons que le modèle unique offre une précision supérieure (94,77 % pour GD&T), un rappel (100 % pour la plupart des catégories), un score F1 (97,3 %) et une réduction des hallucinations (5,23 %) pour toutes les mesures d'évaluation. Le cadre proposé améliore la précision, réduit le travail manuel et prend en charge un déploiement évolutif dans les industries basées sur la précision.