본 연구는 오프라인 안전 모방 학습(IL) 문제를 다룬다. 온라인 상호작용이 위험할 수 있고, 각 타임스텝에서 보상 및 안전 비용 정보를 정확하게 지정하기 어려울 수 있는 환경에서, 에이전트가 피해야 할 바람직하지 않거나 위험한 행동을 반영하는 비선호 궤적을 수집하는 것이 가능하다. 본 논문에서는 SafeMIL이라는 새로운 접근 방식을 제안하여, 다중 인스턴스 학습을 통해 상태-행동 쌍이 위험한지 예측하는 매개변수화된 비용을 학습한다. 학습된 비용은 비선호 행동을 피하는 데 사용되며, 안전을 우선시하는 정책을 만든다. 실험 결과, 제안하는 방법론이 보상 성능을 저하시키지 않으면서 비용 제약을 충족하는 더욱 안전한 정책을 학습하여 여러 기반 모델보다 우수한 성능을 보였다.