본 논문은 기존의 AI 데이터 거버넌스 연구가 데이터로 인한 소비자 및 창작자 피해(개인정보 침해, 저작권 침해, 편향 및 차별 등)에 초점을 맞춘 것과 달리, 데이터가 첨단 AI 모델의 거버넌스 역량을 강화하는 데 어떻게 활용될 수 있는지에 대한 상대적으로 간과된 질문에 초점을 맞추고 있다. "첨단 데이터 거버넌스"라는 접근 방식을 통해 첨단 AI 모델의 위험을 모니터링하고 완화하는 새로운 방법을 제시하며, 특히 모델의 규모가 확장되고 특정 위험한 기능을 획득함에 따라 그 중요성이 커진다. 데이터의 비경합성, 비배타성, 복제 용이성, 합성 가능성 등 고유한 특성으로 인한 어려움에도 불구하고, 데이터 생산자, 집계자, 모델 개발자, 데이터 공급업체 등 데이터 공급망의 주요 행위자를 대상으로 하는 일련의 정책 메커니즘을 제안한다. 15가지 거버넌스 메커니즘을 간략하게 소개하고, 그 중 5가지 미개척 정책 권고안(허가되지 않은 사용 감지를 위한 캐너리 토큰 개발, 악성 콘텐츠 제거를 위한 (자동) 데이터 필터링, 개발자 및 공급업체의 필수 데이터셋 보고 요구 사항, 데이터셋 및 데이터 생성 알고리즘의 보안 강화, 공급업체에 대한 고객 확인 요구 사항)을 중점적으로 소개한다. 데이터를 잠재적 피해의 원천이 아닌 첨단 AI 모델 거버넌스 및 규제를 위한 중요한 거버넌스 수단으로 고려함으로써 정책 입안자에게 새로운 도구를 제공하고자 한다.