본 논문은 대규모 언어 모델(LLM)의 효율성을 측정하는 새로운 지표인 정보 용량을 소개한다. LLM의 빠른 발전과 자원 소비 증가에 대한 해결책으로, 텍스트 압축 성능을 계산 복잡도와 연계하여 모델 효율성을 측정한다. 다양한 모델 크기와 아키텍처에서 일관된 정보 용량 측정을 가능하게 하며, 토크나이저 효율성까지 고려한다. 49개의 모델을 대상으로 실험한 결과, 토크나이저 효율성, 사전 학습 데이터, 전문가 혼합 아키텍처가 정보 용량에 미치는 영향을 확인했다.