본 논문은 대규모 언어 모델(LLM)의 질의응답(Q&A) 성능 향상을 위해, 외부 지식을 활용하는 검색 증강 생성(RAG) 기법의 한계를 극복하는 새로운 방법인 자기 지식 인지 대류(CCSK)를 제안합니다. 기존의 임계값 기반 방법들이 단일 기준의 정적 메커니즘을 사용하여 LLM의 자기 지식과 외부 정보 검색 간의 균형을 맞추는 데 어려움을 겪는다는 점을 지적하며, CCSK는 Siamese Network와 응답 품질 모델을 통해 동적인 공동 의사결정 과정을 구현합니다. Siamese Network는 현재 질의와 과거 질의 간의 유사도를 계산하고, 응답 품질 모델은 LightGBM을 통해 LLM의 응답을 평가합니다. 최종 결정은 두 모듈의 출력과 다중 헤드 어텐션 메커니즘을 사용하여 융합된 텍스트 특징을 기반으로 이루어집니다. 실제 데이터셋을 이용한 실험 결과, CCSK가 정보 검색의 효율성을 크게 향상시키는 것을 보여줍니다.