영국 AI 안전 연구소(UK AISI)와 미국 AI 안전 연구소(US AISI)는 국제 AI 안전 연구소 네트워크에서 독특한 위치를 차지하고 있으며, 최첨단 AI 기업이 있는 지역에 위치하여 국제적인 AI 안전 논의를 주도하고 있습니다. 본 논문은 두 연구소 모두 국제 네트워크와 특정 정보 범주를 공유하는 것이 이익이 되지만, 다른 범주는 공유하지 않는 것이 좋으며, 일부 범주는 국내 우선순위에 따라 개별적으로 평가해야 한다고 주장합니다. 또한, 정책 입안자와 연구자들이 배포 전 평가 결과부터 평가 기준까지 다양한 정보 범주의 공유에 따른 잠재적 이점과 위험을 고려하여 이러한 세 가지 경우를 구분할 수 있는 임시 프레임워크를 제안합니다. AI 정책 관련 정보 공유 결정에 대한 연구를 개선하기 위해, 공유 결정에 영향을 미치는 변동 요인을 지속적으로 모니터링하고, 특정 정책 관련 정보 범주에 대한 심층 분석 및 향후 연구에서 고려해야 할 추가 요소의 중요성을 강조합니다.