본 논문은 대규모 언어 모델(LLM)을 온라인 플랫폼의 콘텐츠 조정에 활용하는 데 있어 기존의 정확도 중심 평가 방식의 한계를 지적하고, 합법성 기반의 새로운 평가틀을 제시한다. 기존 연구들이 주로 LLM의 정확도에 초점을 맞춘 반면, 본 논문은 쉬운 사례와 어려운 사례 간의 구분, 그리고 정확도 향상의 불가피한 트레이드오프를 고려해야 함을 강조한다. 콘텐츠 조정이 플랫폼 거버넌스의 구성 요소이며, 그 핵심이 합법성 확보 및 향상임을 지적하며, LLM의 주요 목표는 조정 결정의 정확성이 아닌 합법성 확보임을 주장한다. 이에 따라 제시된 합법성 기반 평가틀은 쉬운 사례에서는 정확성, 속도, 투명성을, 어려운 사례에서는 이유 있는 정당화 및 사용자 참여를 중요시한다. LLM의 실질적인 기여는 정확도 향상이 아닌, 어려운 사례와 쉬운 사례의 분류, 조정 결정에 대한 양질의 설명 제공, 인간 검토자의 정보 접근 향상, 그리고 사용자 참여의 상호작용적 증진이라고 주장하며, 이러한 기여를 실현하기 위한 LLM 통합 워크플로우를 제안한다. 법학 및 사회과학의 규범적 이론을 활용하여 새로운 기술 응용에 대한 비판적 평가를 수행하며, LLM의 콘텐츠 조정에서의 역할을 재정의하고 관련 연구 방향을 제시한다.