Este artículo busca acelerar la extracción de información estructurada de datos no estructurados (p. ej., documentos de texto libre, literatura científica) para mejorar el descubrimiento científico y la integración del conocimiento. Si bien los modelos de lenguaje a gran escala (LLM) han demostrado un excelente rendimiento en diversas tareas de procesamiento del lenguaje natural, son menos eficientes en ciertos dominios que requieren conocimiento especializado y comprensión matizada, y adolecen de falta de transferibilidad entre tareas y dominios. Para abordar estos desafíos, presentamos StructSense, un marco modular, independiente de la tarea y de código abierto que aprovecha el conocimiento simbólico específico del dominio integrado en ontologías para explorar de forma más efectiva el contenido complejo del dominio. StructSense integra un ciclo de retroalimentación para la mejora iterativa mediante jueces autoevaluados y un mecanismo de intervención humana para el control de calidad y la validación. Mediante su aplicación a una tarea de extracción de información en neurociencia, demostramos que StructSense supera dos limitaciones: la sensibilidad del dominio y la falta de generalización entre tareas.