PL-Stitch는 요리부터 복잡한 수술까지의 절차적 활동을 다루는 비디오의 시간적 순서를 활용하는 자기 지도 학습 프레임워크입니다. 기존의 자기 지도 학습 방법이 절차적 순서를 간과하는 점을 지적하고, Plackett-Luce (PL) 모델을 기반으로 한 두 가지 확률적 목표를 통합하여 이를 해결합니다. 주요 목표는 샘플 프레임을 시간 순서대로 정렬하도록 모델을 학습시키고, 부가적인 목표는 세밀한 프레임 간의 객체 상관 관계를 캡처합니다. 실험 결과, 수술 단계 인식과 요리 동작 분할에서 기존 방법보다 우수한 성능을 보였습니다.