본 논문은 대규모 언어 모델(LLM)의 급속한 도입으로 인한 에너지 소비 및 탄소 배출 증가 문제를 해결하기 위해 에너지 효율적인 최적화 기법을 LLM 배포에 통합하는 방안을 탐구합니다. 전략적 양자화와 로컬 추론 기법을 사용하여 LLM의 탄소 발자국을 크게 줄이는 사례 연구 및 프레임워크를 제시하며, 이러한 방법이 에너지 소비 및 탄소 배출을 최대 45%까지 줄일 수 있음을 실험 결과를 통해 보여줍니다. 이는 정확성과 응답성을 유지하면서 AI의 지속가능성을 달성하기 위한 실행 가능한 통찰력을 제공합니다.