Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Deep Learning Model Deployment in Multiple Cloud Providers: an Exploratory Study Using Low Computing Power Environments

Created by
  • Haebom

저자

Elayne Lemos, Rodrigo Oliveira, Jairson Rodrigues, Rosalvo F. Oliveira Neto

개요

본 논문은 머신러닝, 특히 딥러닝 모델을 클라우드 상에서 배포하는 비용 효율성에 대한 연구 결과를 제시합니다. 문법 오류 수정 딥러닝 모델인 GECToR을 AWS, Google Cloud, Azure 세 플랫폼에 배포하여 실시간 지연 시간, 하드웨어 사용량, 비용을 측정했습니다. 7개의 실행 환경과 10번의 반복 실험을 통해 GPU 기반 배포는 성능은 우수하지만 비용이 GPU를 사용하지 않는 솔루션보다 평균 300% 높다는 것을 발견했습니다. 반면, CPU 기반 배포에서는 프로세서 캐시 크기가 비용 효율성에 중요한 영향을 미치며, GPU 대비 50% 이상의 비용 절감을 가능하게 함을 보였습니다. 결론적으로, GPU 없이도 클라우드 기반 딥러닝 추론 솔루션의 실행 가능성과 경제성을 입증하여 자원이 제한적인 스타트업과 같은 사용자에게 도움을 줄 수 있음을 시사합니다.

시사점, 한계점

시사점:
GPU 사용 없이도 클라우드 기반 딥러닝 추론이 경제적으로 가능함을 보여줌.
CPU 기반 배포에서 프로세서 캐시 크기의 중요성을 강조. 캐시 크기 최적화를 통한 비용 절감 가능성 제시.
자원 제약이 있는 사용자(예: 스타트업)에게 실용적인 대안 제시.
클라우드 플랫폼별 비용 및 성능 비교 분석을 통해 최적의 환경 선택에 대한 정보 제공.
한계점:
GECToR 모델 하나만을 사용한 실험으로 일반화에 한계 존재. 다른 딥러닝 모델에도 동일한 결과가 적용될지는 추가 연구 필요.
특정 클라우드 플랫폼과 인스턴스 유형에 국한된 실험 결과. 다른 플랫폼 및 인스턴스 유형에 대한 추가 연구 필요.
실험 환경 설정 및 데이터셋에 대한 자세한 정보 부족. 재현성 확보를 위한 추가 정보 제공 필요.
👍