본 논문은 OpenAI가 수행한 외부 레드 팀 활동에 대한 백서로, AI 모델 및 시스템의 위험 평가에 있어 레드 팀 활동의 중요성을 강조한다. 외부 레드 팀 구성, 접근 수준 결정, 활동 가이드 제공 등 레드 팀 활동 설계 고려 사항을 설명하고, 위험 평가 및 자동화된 평가에 대한 레드 팀 활동 결과를 제시한다. 또한 외부 레드 팀 활동의 한계점과 더 넓은 범위의 AI 모델 및 시스템 평가에서의 역할을 논의하며, AI 개발자, 배포자, 평가 생성자, 정책 입안자들이 레드 팀 활동 캠페인을 더 효과적으로 설계하고 모델 배포 및 평가 프로세스에 통합하는 방법을 이해하는 데 도움을 주고자 한다. 레드 팀 활동 방법론은 진화하고 있으며, 그 가치는 레드 팀 생태계와 모델 자체가 발전함에 따라 변화하고 있음을 지적한다.