본 논문은 대규모 언어 모델(LLM)의 편향성을 탐지하는 기존 방법들의 세 가지 주요 문제점, 즉 적절한 탐지 방법 선택 기준 부재, 상충되는 결과 해결 시스템 부재, 그리고 실제 사용자 행동으로의 일반화 가능성에 대한 형식적 틀 부재를 지적합니다. 이러한 문제를 해결하기 위해 사회과학의 통찰을 활용하여 LLM 사회적 편향성 탐지를 체계화하고, EcoLevels라는 새로운 프레임워크를 제시합니다. EcoLevels는 적절한 편향성 탐지 방법 결정, 상충되는 결과 조정, 그리고 편향성 일반화에 대한 예측 생성을 지원합니다. LLM 편향성 탐지 방법이 많은 부분 인간 대상 탐지 방법을 직접적으로 활용한다는 점에 착안하여 사회과학 연구를 기반으로 분석을 진행하며, 수십 년간 축적된 사회과학 연구의 성과를 활용하여 차세대 LLM 편향성 탐지 방법을 개선할 것을 제안합니다.