본 논문은 지식 그래프의 불완전성을 해결하기 위해 누락된 정보를 추론하는 지식 그래프 완성(KGC) 문제를 다룹니다. 기존의 구조 기반 KGC 방법들은 계산 비용이 많이 들고 확장성이 떨어지는 단점이 있습니다. 본 논문에서는 T5와 BERT와 같은 언어 모델을 사용하는 최근의 텍스트 기반 접근 방식의 한계를 극복하기 위해, 관계의 문맥 정보를 고려하여 생성적 언어 모델의 입력을 풍부하게 하는 KGC-ERC 프레임워크를 제안합니다. KGC-ERC는 엔티티의 이웃 정보뿐만 아니라 관계의 문맥 정보도 통합하여 언어 모델의 추론 능력을 향상시킵니다. 또한, 입력 토큰 제약 내에서 관련 문맥을 효과적으로 선택하는 샘플링 전략을 도입하여 모델 성능을 향상시킵니다. Wikidata5M, Wiki27K, FB15K-237-N 데이터셋에 대한 실험 결과, KGC-ERC는 최첨단 기준 모델들과 비교하여 예측 성능과 확장성 면에서 우수하거나 동등한 성능을 보입니다.