본 논문은 정보 검색 과제에서 최첨단 성능을 달성한 신경망 순위 지정 모델(NRM) 중 Cross-Encoder 변형인 MiniLM을 연구하여 어떤 관련성 특징을 계산하고 어디에 저장하는지 조사합니다. 연구 결과, MiniLM은 기존 BM25의 의미론적 변형을 해석 가능한 방식으로 사용하는 것으로 나타났습니다. 특히, (1) 용어 포화 및 문서 길이 효과를 제어하면서 소프트 용어 빈도를 계산하는 Transformer 어텐션 헤드와 (2) 어휘에 대한 역문서 빈도 정보를 인코딩하는 임베딩 매트릭스의 저차원 구성요소라는 두 가지 국지적인 구성 요소를 특징으로 합니다. 이는 Cross-Encoder가 BM25와 동일한 기본 메커니즘을 사용하지만 의미를 포착하는 기능을 추가로 활용하여 검색 성능을 향상시킨다는 것을 시사합니다. 이러한 세밀한 이해는 모델의 투명성을 높이고, 안전 문제를 해결하며, 교육 및 실제 응용 프로그램의 확장성을 개선하기 위한 모델 편집의 기반을 마련합니다.