본 논문은 2천만에서 130억 개의 활성 매개변수를 가진 일련의 언어 모델을 개발하는 과정에서 발생하는 실제 환경적 영향을 추정합니다. 하드웨어 제조, 모델 개발, 최종 훈련 실행을 고려한 결과, 해당 모델 시리즈는 493톤의 탄소 배출량(미국 가정 98채의 1년치 전력 소비량에 해당)과 276만 리터의 물 소비량(미국인 1인의 24.5년치 물 사용량에 해당)을 초래했습니다. 특히, 대부분의 모델 개발자가 공개하지 않는 모델 개발 단계의 환경적 영향이 훈련 단계의 약 50%에 달한다는 점을 밝혔습니다. 또한, 훈련 과정의 전력 사용량이 일정하지 않고 하드웨어 최대 전력 소비량의 15%에서 85%까지 변동한다는 점을 데이터를 통해 보여줍니다. 마지막으로, AI 시스템의 환경적 영향을 추정하는 어려움과 모델 개발자 및 대중을 위한 주요 시사점에 대해 논의합니다.