본 논문은 대규모 언어 모델(LLM)에 내재된 편향성을 체계적으로 평가하기 위한 테스트 플랫폼인 LangBiTe를 제시한다. LangBiTe는 인터넷에서 수집된 방대한 데이터로 훈련된 LLM이 유해하거나 차별적인 행동을 보일 가능성에 대한 우려를 해결하기 위해 고안되었다. 개발팀은 LangBiTe를 이용하여 테스트 시나리오를 맞춤 설정하고, 사용자 정의 윤리적 요구 사항에 따라 테스트 케이스를 자동으로 생성 및 실행할 수 있다. 각 테스트는 LLM에 입력되는 프롬프트와 LLM의 응답에서 편향성을 식별하는 테스트 오라클로 구성된다. LangBiTe는 LLM의 편향성 평가와 초기 윤리적 요구 사항과 얻어진 통찰력 간의 엔드투엔드 추적 기능을 제공한다.