본 논문은 최소침습적 내시경 수술에서 깊이 추정의 중요성을 강조하며, 기존의 CNN 기반 깊이 추정 네트워크의 한계를 극복하기 위해 Foundation Model을 활용한 새로운 미세조정 전략을 제시합니다. 특히, Depth Anything Model을 기반으로 내시경 영상에 최적화된 깊이 추정을 위한 내재적 비지도 단안 깊이 추정 프레임워크를 제안합니다. 이는 랜덤 벡터 기반의 저랭크 적응 기법과 깊이 분리 가능 합성곱 기반의 잔차 블록을 통합하여 다양한 스케일에 대한 적응력을 높이고, Transformer의 국소 특징 학습 제한을 보완합니다. SCARED 및 Hamlyn 데이터셋 실험 결과, 제안된 방법은 최첨단 성능을 달성하면서 학습 가능한 매개변수의 수를 최소화함을 보여줍니다.