본 논문은 대규모 언어 모델(LLM)의 도메인 적응에서 발생하는 높은 계산 비용과 환각 문제를 해결하기 위해 경량화된 적응 솔루션인 소형 언어 그래프(SLG)를 제안한다. SLG는 특정하고 간결한 텍스트에 미세 조정된 소형 언어 모델을 노드로 하는 그래프 구조를 가지며, 기존 미세 조정 방법보다 정확도 측정 지표에서 3배 향상된 성능과 1.7배 빠른 미세 조정 속도를 보였다. 이는 중소 규모의 엔지니어링 기업이 고가의 컴퓨팅 자원 없이 생성형 AI 기술을 활용할 수 있는 가능성을 제시하며, 분산 AI 시스템 구축에도 기여할 수 있음을 시사한다.