본 논문은 TVM 컴파일러 기반의 워크플로우를 제시하여 AI 작업 부하를 RISC-V 벡터 유닛에 효율적으로 매핑하는 방법을 제안합니다. 기존의 수작업 라이브러리나 컴파일러의 자동 벡터화 기능에 의존하는 대신, TVM의 MetaSchedule 프레임워크에 RVV 확장 기능을 통합하여 다양한 AI 작업 부하의 성능을 최적화합니다. FPGA 상의 다양한 RISC-V SoC와 상용 RISC-V SoC에서 실험을 진행하여 GCC의 자동 벡터화 기능 대비 평균 46%, muRISCV-NN 대비 29%의 실행 지연 시간 개선을 달성하였으며, LLVM 대비 평균 35% 빠른 매핑을 찾았습니다. 또한, 생성된 바이너리의 코드 메모리 공간이 감소하여 임베디드 디바이스에 적합함을 보였습니다. 제안된 워크플로우는 오픈소스로 공개되어 다른 RISC-V 확장 기능에도 적용될 수 있도록 하였습니다.