본 논문은 대규모 언어 모델(LLM)의 추론 능력 향상에 대한 새로운 접근법을 제시합니다. 기존 벡터 기반 신경망의 한계를 극복하기 위해, 계산 기본 요소를 벡터에서 구(sphere)로 일반화한 구 신경망(SphNN)을 제안합니다. SphNN은 계층적 신경 기호 Kolmogorov-Arnold 기하 GNN이며, 이웃 공간 관계의 신경 기호 전이 맵을 사용하여 현재 구 구성을 목표로 변환합니다. 특히, 삼단 논법 추론에 SphNN을 적용하여 훈련 데이터 없이도 긴 사슬의 삼단 논법 추론의 유효성을 한 시대에 결정할 수 있음을 보여줍니다. 최악의 계산 복잡도는 O(N)입니다. SphNN은 시공간 추론, 부정과 선택을 포함한 논리적 추론, 사건 추론, 신경 기호 통합 및 유머 이해(최고 수준의 인지)와 같은 다양한 유형의 추론으로 발전할 수 있습니다. 이는 기존 심층 학습 시스템이 합리적 추론 영역에 도달하지 못하고 LLM이 환각의 늪에 갇히는 것을 막는 누락된 구성 요소가 구의 영이 아닌 반지름이라는 것을 시사합니다.