본 논문은 지식 그래프 기반 기초 모델(KGFMs)의 제로샷 추론 성능 향상을 위해 구조적 정보뿐 아니라 텍스트 속 의미 정보를 통합하는 새로운 모델인 SEMMA를 제안합니다. SEMMA는 대규모 언어 모델(LLMs)을 활용하여 관계 식별자를 풍부하게 만들고, 이를 통해 생성된 의미적 임베딩을 사용하여 텍스트 관계 그래프를 구성합니다. 이 그래프는 구조적 구성 요소와 결합되어 사용됩니다. 54개의 다양한 지식 그래프(KGs)에 대한 실험 결과, SEMMA는 ULTRA와 같은 순수 구조 기반 모델보다 완전 유도적 링크 예측에서 더 나은 성능을 보였습니다. 특히, 테스트 시점의 관계 어휘가 완전히 새로운 설정과 같은 더 어려운 일반화 환경에서 구조적 방법은 성능이 저하되는 반면, SEMMA는 2배 더 효과적인 것으로 나타났습니다. 이는 구조적 정보만으로는 일반화가 어렵다는 것을 보여주며, 구조적 및 언어적 신호를 통합하는 기초 모델의 필요성을 강조합니다.