본 연구는 복잡하고 알려지지 않은 환경에서 모바일 로봇의 효과적인 작동에 필요한 내비게이션 스택의 중요한 구성 요소인 장애물 회피에 초점을 맞추고 있습니다. Intel RealSense D415 RGB-D 카메라로 획득한 동기화된 컬러 및 깊이 이미지로부터 저수준 조향 명령을 생성하기 위해 세 가지 종단 간 CNN(Convolutional Neural Networks)을 훈련하고 오프라인에서 평가했으며, 차동 구동 모바일 로봇에 실시간 장애물 회피를 위해 배포했습니다. NetConEmb 모델은 오프라인 평가에서 가장 우수한 성능을 보였으며, $0.58 \times 10^{-3}$ rad/s의 MedAE를 기록했습니다. NetEmb 아키텍처는 훈련 가능한 매개변수 수를 약 25% 줄였고 더 빠르게 수렴했지만, RMSE $21.68 \times 10^{-3}$ rad/s로 NetConEmb의 $21.42 \times 10^{-3}$ rad/s에 근접하는 결과를 보였습니다. 실시간 내비게이션은 NetConEmb의 견고성을 더욱 확인했으며, 알려진 환경과 알려지지 않은 환경 모두에서 100% 성공률을 달성했습니다. 반면 NetEmb와 NetGated는 알려진 환경에서만 성공했습니다.