본 논문은 복잡하고 추상적인 과제 처리 시 정확도가 저하되는 대규모 언어 모델(LLM)의 문제점을 해결하기 위해 Matrix of Thought (MoT)라는 새로운 사고 구조를 제안한다. MoT는 열-셀 통신 메커니즘을 통해 수평 및 수직 차원에서 문제를 탐구하여 다중 전략 및 심층적 사고를 가능하게 하고, 중복성을 줄인다. 또한, RAG를 통해 검색된 지식 그래프 삼중항과 원본 텍스트를 활용하여 지식 단위를 구성하고 오류를 수정하는 fact-correction 메커니즘을 도입한다. 24점 게임, 질문 답변 평가, 명제 작성 등 세 가지 과제에 대한 실험 결과는 제안된 프레임워크가 기존 방법보다 우수하며, 추론 시간은 기준 방법의 14.4%에 불과함을 보여준다.