본 논문은 대규모 언어 모델(LLM)이 AI 기반 사회기술 시스템에서 전례 없는 규모로 문화적 맥락, 그리고 따라서 인간의 의미를 명확하게 해줄 수 있다고 주장합니다. 기존 시스템은 표준화를 강요하는 숫자적 표현인 얇은 기술(thin description)에 의존하여 인간 활동의 의미를 부여하는 문화적 맥락을 제거했기 때문에 인간의 의미를 나타낼 수 없었습니다. 반면, 인문학 및 질적 사회과학 학자들은 이질성을 수용하고 인간의 의미를 나타내는 데 필요한 맥락 정보를 유지하는 구두 표현인 두꺼운 기술(thick description)을 통해 의미를 나타내는 프레임워크를 개발했습니다. 이러한 방법은 의미를 효과적으로 암호화할 수 있지만, 대규모로 배포하기는 어렵습니다. 그러나 LLM의 언어 능력은 이제 두꺼운 기술의 생성 및 처리를 (적어도 부분적으로) 자동화하는 수단을 제공하여 이러한 병목 현상을 극복할 수 있습니다. 인간의 의미를 명확하게 만드는 문제는 단순히 더 나은 지표를 선택하는 것이 아니라 (두꺼운 기술에 기반한) 새로운 표현 형식을 개발하는 것에 관한 것이라고 주장합니다. 생성형 AI 적용의 중요한 방향으로 제시하며, 맥락 보존, 해석적 다원주의 유지, 살아온 경험과 비판적 거리에 기반한 관점 통합, 질적 내용과 양적 규모 구분, 의미를 정적인 것이 아닌 동적인 것으로 인정하는 다섯 가지 주요 과제를 확인합니다. 또한, 두꺼운 기술은 LLM에서 문화를 나타내는 것(또는 사용하는 것)의 어려움에 대한 여러 가지 새롭게 등장하는 우려를 해결하는 통합 프레임워크 역할을 할 수 있다고 제안합니다.