Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Green MLOps to Green GenOps: An Empirical Study of Energy Consumption in Discriminative and Generative AI Operations

Created by
  • Haebom

저자

Adrian Sanchez-Mompo, Ioannis Mavromatis, Peizheng Li, Konstantinos Katsaros, Aftab Khan

개요

본 연구는 실제 MLOps 파이프라인 내에서 판별적 및 생성적 AI 모델의 에너지 소비에 대한 경험적 조사를 제시합니다. 판별적 모델의 경우, 학습 및 추론 중 다양한 아키텍처와 하이퍼파라미터를 검토하고 에너지 효율적인 관행을 식별합니다. 생성적 AI의 경우, 주로 다양한 모델 크기와 다양한 서비스 요청에 따른 에너지 소비에 중점을 두고 대규모 언어 모델(LLM)을 평가합니다. 본 연구는 다양한 구성, 모델 및 데이터 세트에서 복제가 용이하도록 소프트웨어 기반 전력 측정을 사용합니다. 여러 모델과 하드웨어 설정을 분석하여 다양한 메트릭 간의 상관 관계를 밝히고 에너지 소비에 대한 주요 요인을 파악합니다. 결과는 판별적 모델의 경우 아키텍처, 하이퍼파라미터 및 하드웨어를 최적화하면 성능을 저하시키지 않고 에너지 소비를 크게 줄일 수 있음을 나타냅니다. LLM의 경우 에너지 효율은 모델 크기, 추론 복잡성 및 요청 처리 용량 간의 균형에 따라 달라지며, 활용률이 낮으면 더 큰 모델이 반드시 더 많은 에너지를 소비하는 것은 아닙니다. 이 분석은 성능을 유지하면서 에너지 소비 및 탄소 발자국 감소를 강조하는 친환경적이고 지속 가능한 ML 운영을 설계하기 위한 실용적인 지침을 제공합니다. 본 논문은 다양한 유형의 AI 모델에 걸쳐 총 에너지 사용량을 정확하게 추정하기 위한 벤치마크 역할을 할 수 있습니다.

시사점, 한계점

시사점:
판별적 모델과 생성적 모델(LLM)의 에너지 소비에 대한 실증적 데이터 제공
모델 아키텍처, 하이퍼파라미터 및 하드웨어 최적화를 통한 에너지 효율 향상 방안 제시
LLM에서 모델 크기, 추론 복잡성, 요청 처리 용량 간의 균형을 통한 에너지 효율 관리 방안 제시
친환경적이고 지속 가능한 ML 운영을 위한 실용적인 지침 제공
다양한 AI 모델의 에너지 소비량 추정을 위한 벤치마크 제공
한계점:
소프트웨어 기반 전력 측정 방식의 정확도 한계
특정 모델과 하드웨어 설정에 대한 분석 결과의 일반화 가능성 제한
다양한 AI 모델과 MLOps 파이프라인의 포괄적인 분석 부족 가능성
에너지 소비 감소와 성능 저하 간의 상충 관계에 대한 심층 분석 부족 가능성
👍