본 논문은 논리 형식을 기반으로 하는 언어 모델(LFLMs)이 텍스트 기반 언어 모델보다 데이터 효율성이 높다는 주장을 제기한다. 논리 형식의 그래프 표현을 사용하는 사전 훈련된 언어 모델인 GFoLDS(Graph-based Formal-Logical Distributional Semantics) 프로토타입을 제시하여 LFLMs의 개념 증명을 시도한다. 실험 결과, LFLMs는 모델에 내재된 기본적인 언어 지식을 활용하여 더 복잡한 패턴을 빠르게 학습할 수 있음을 보여준다. 다운스트림 작업에서 GFoLDS는 유사한 양의 데이터로 사전 훈련된 텍스트 기반 Transformer 기반 언어 모델보다 훨씬 우수한 성능을 보이며, LFLMs가 훨씬 적은 데이터로 학습할 수 있음을 시사한다. 또한, 모델의 성능은 추가적인 파라미터와 사전 훈련 데이터에 따라 향상될 가능성이 높아 실제 응용 분야에서 LFLMs의 실현 가능성을 시사한다.