En este artículo, presentamos un método novedoso, denominado ALIGNed-LLM, para abordar el problema de las alucinaciones en modelos lingüísticos mediante la integración eficiente de grafos de conocimiento (GC) en el espacio latente de dichos modelos. Inspirados en el LLaVA original, alineamos entidades e incrustaciones de texto utilizando modelos de incrustación de grafos de conocimiento (GEC) preentrenados, como TransE, y una capa de proyección aprendible. Esto permite que el modelo lingüístico distinga entidades similares, mejore su base factual y reduzca las alucinaciones. Realizamos experimentos con tres conjuntos de datos de referencia de preguntas y respuestas y modelos lingüísticos de diversos tamaños, y demostramos mejoras significativas en el rendimiento. También aplicamos el método a un caso práctico financiero real de un importante banco central europeo y verificamos la mejora en la precisión.