본 논문에서는 ALIGNed-LLM이라는 새로운 방법을 제시하여, 지식 그래프(KG)를 언어 모델의 잠재 공간에 효율적으로 통합함으로써 언어 모델의 환각(hallucination) 문제를 해결합니다. 기존의 LLaVA에서 영감을 얻어, TransE와 같은 사전 훈련된 지식 그래프 임베딩(KGE) 모델의 임베딩과 학습 가능한 투영 레이어를 사용하여 엔티티와 텍스트 임베딩을 정렬합니다. 이를 통해 언어 모델은 유사한 엔티티를 구별하고 사실적 근거를 향상시켜 환각을 줄입니다. 세 가지 질문 응답 벤치마크 데이터셋과 다양한 크기의 언어 모델을 사용하여 실험을 진행, 상당한 성능 향상을 보였으며, 유럽의 대형 중앙은행의 실제 금융 사용 사례에도 적용하여 정확도 향상을 확인했습니다.