MOCHA (Multi-modal Objects-aware Cross-arcHitecture Alignment)는 대규모 비전-언어 교사 모델(예: LLaVa)의 영역 수준 다중 모달 의미를 경량 비전 전용 객체 검출기 학생 모델(예: YOLO)로 전달하는 지식 증류 기법입니다. 번역 모듈은 학생 특징을 공유 공간으로 매핑하고, 학생과 번역기의 학습은 지역 정렬과 전역 관계 일관성을 모두 강화하는 이중 목적 손실 함수에 의해 유도됩니다. 기존의 밀집 또는 전역 정렬에 중점을 둔 접근 방식과 달리, MOCHA는 객체 수준에서 작동하여 추론 시 교사 모델을 수정하거나 텍스트 입력을 필요로 하지 않고 효율적인 의미 전달을 가능하게 합니다. 소수 샷 환경에서 네 가지 개인화된 탐지 벤치마크에서 이 방법을 검증했으며, 기준선보다 평균 10.1점 향상되는 결과를 보였습니다. 소형 아키텍처에도 불구하고, MOCHA는 더 큰 다중 모달 모델과 동등한 성능에 도달하여 실제 배포에 적합함을 증명합니다.