본 논문은 첨단 AI 시스템의 잠재적 위험과 책임 있는 평가 및 감독의 필요성에 대한 우려를 제기하며, 첨단 AI 기업들이 사전 및 사후 안전 평가를 모두 보고해야 한다고 주장합니다. 모델을 두 단계 모두에서 평가하면 정책 입안자는 배포, 접근 및 안전 기준을 규제하는 데 필요한 증거를 얻을 수 있습니다. 논문은 사전 또는 사후 평가만을 사용하는 것은 모델 안전에 대한 오해를 불러일으킬 수 있음을 보여줍니다. 선도적인 첨단 연구소의 AI 안전 공개 분석을 통해 (1) 기업들이 사전 및 사후 평가를 모두 수행하는 경우가 드물고, (2) 평가 방법이 표준화되지 않았으며, (3) 보고된 결과가 정책 결정에 도움이 될 만큼 명확하지 않다는 세 가지 중요한 문제점을 확인합니다. 이러한 문제를 해결하기 위해 정부 승인 기관에 대한 사전 및 사후 기능의 의무적 공개, 표준화된 평가 방법 및 공공 안전 보고를 위한 최소 투명성 요구 사항을 권장합니다. 이를 통해 정책 입안자와 규제 기관은 표적 안전 조치를 마련하고, 배포 위험을 평가하며, 기업의 안전 주장을 효과적으로 조사할 수 있습니다.