MOCHA (Multi-modal Objects-aware Cross-arcHitecture Alignment)는 대규모 비전-언어 교사 모델(예: LLaVa)의 영역 수준 다중 모달 의미를 경량 비전 전용 객체 검출기 학생 모델(예: YOLO)로 전달하는 지식 증류 기법입니다. 번역 모듈은 학생 특징을 공유 공간으로 매핑하고, 학생과 번역기의 훈련은 지역적 정렬과 전역적 관계 일관성을 모두 강화하는 이중 목적 손실 함수에 의해 유도됩니다. 기존의 밀집 또는 전역 정렬에 중점을 둔 방법과 달리, MOCHA는 객체 수준에서 작동하여 교사 모델을 수정하거나 추론 시 텍스트 입력을 필요로 하지 않고 효율적인 의미 전달을 가능하게 합니다. 소수 샷 환경 하에서 네 가지 개인화된 검출 벤치마크에서 이 방법을 검증했습니다. 결과는 기준선보다 일관되게 향상되었으며, 평균 10.1점의 성능 향상을 보였습니다. 컴팩트한 아키텍처에도 불구하고 MOCHA는 더 큰 다중 모달 모델과 동등한 성능에 도달하여 실제 배포에 적합함을 입증했습니다.