본 논문은 최근 자연어 처리(NLP) 분야에서 우수한 성능을 보이는 Transformer 기반 임베딩 모델의 블랙박스적 특성과 대규모 데이터 기반 학습 방식의 문제점(편향, 신뢰성, 안전성)을 해결하기 위해, 인지과학적 발견에 기반한 새로운 문장 표현 네트워크인 PropNet을 제안합니다. PropNet은 문장 내 명제를 기반으로 계층적 네트워크를 구축하여 본질적인 해석성을 추구하는 완전한 화이트박스 모델입니다. 실험 결과, PropNet은 기존 최고 성능(SOTA) 임베딩 모델에 비해 의미적 텍스트 유사성(STS) 작업에서 성능 차이를 보이지만, 사례 연구를 통해 향상 가능성을 제시하고, STS 벤치마크에 대한 인간 인지 과정 분석을 가능하게 합니다.