Supporting the development of Machine Learning for fundamental science in a federated Cloud with the AI_INFN platform
Created by
Haebom
Category
Empty
저자
Lucio Anderlini, Matteo Barbetti, Giulio Bianchini, Diego Ciangottini, Stefano Dal Pra, Diego Michelotto, Carmelo Pellegrino, Rosa Petrini, Alessandro Pascolini, Daniele Spiga
개요
INFN의 AI_INFN 프로젝트는 머신러닝(ML) 기법의 INFN 활용 사례 채택을 촉진하기 위해, AI 맞춤형 컴퓨팅 자원 제공 등 여러 측면에서 지원을 제공하는 것을 목표로 합니다. INFN 클라우드 환경에서 클라우드 네이티브 솔루션을 활용하여 하드웨어 가속기를 효과적으로 공유하고, 연구 활동 다양성을 보장합니다. 본 논문은 GPU 기반 데이터 분석 워크플로우 개발 및 이기종 분산 컴퓨팅 자원(Virtual Kubelets 및 interLink 제공자와의 연합 가능)에서의 확장성을 용이하게 하도록 설계된 Kubernetes 플랫폼의 구축 현황을 업데이트합니다.
시사점, 한계점
•
시사점: Kubernetes 기반의 클라우드 네이티브 플랫폼을 활용하여 GPU 가속기를 효율적으로 관리하고, 머신러닝 기반 데이터 분석 워크플로우의 개발 및 확장성을 향상시킬 수 있다는 것을 보여줍니다. INFN과 같은 대규모 연구 기관에서 다양한 연구 활동에 걸쳐 AI 기술 채택을 가속화하는 데 기여할 수 있습니다.
•
한계점: 현재 구축 현황에 대한 업데이트만 제공하며, 플랫폼의 성능, 안정성, 확장성에 대한 구체적인 평가 및 실험 결과는 제시되지 않았습니다. Virtual Kubelets 및 interLink 제공자와의 연합에 대한 구체적인 구현 방식과 성능에 대한 정보가 부족합니다. 다양한 머신러닝 모델 및 데이터 분석 워크플로우에 대한 적용 가능성 및 제한 사항에 대한 분석이 필요합니다.