Cet article vise à accélérer l'extraction d'informations structurées à partir de données non structurées (par exemple, documents en texte libre, littérature scientifique) afin d'améliorer la découverte scientifique et l'intégration des connaissances. Si les modèles linguistiques à grande échelle (MLH) ont démontré d'excellentes performances pour diverses tâches de traitement du langage naturel, ils sont moins efficaces dans certains domaines exigeant des connaissances spécialisées et une compréhension nuancée, et souffrent d'un manque de transférabilité entre tâches et domaines. Pour relever ces défis, nous présentons StructSense, un framework open source modulaire et indépendant des tâches, qui exploite les connaissances symboliques spécifiques à un domaine, intégrées dans des ontologies, pour explorer plus efficacement le contenu complexe d'un domaine. StructSense intègre une boucle de rétroaction pour une amélioration itérative via des juges auto-évaluateurs et un mécanisme d'intervention humaine pour l'assurance qualité et la validation. En l'appliquant à une tâche d'extraction d'informations en neurosciences, nous démontrons que StructSense surmonte deux limites : la sensibilité au domaine et le manque de généralisation inter-tâches.