본 논문은 Vision-Language-Action (VLA) 모델 사전 학습을 위해, 연속적인 산업 비디오 스트림에서 방대한 양의 레이블이 없는 인간 시연 데이터를 활용하는 새로운 비지도 학습 프레임워크를 제시합니다. 본 방법은 경량 모션 토크나이저를 훈련하여 모션 역학을 인코딩하고, "잠재 동작 에너지" 메트릭을 활용하는 비지도 동작 세그멘테이션 기법을 사용하여 의미적으로 일관된 동작 기본 요소를 발견하고 분할합니다. 이 파이프라인은 분할된 비디오 클립과 해당 잠재 동작 시퀀스를 모두 출력하여 VLA 사전 학습에 직접 적합한 구조화된 데이터를 제공합니다. 공개 벤치마크 및 독점적인 전기 모터 조립 데이터셋에 대한 평가는 작업장에서 인간이 수행하는 주요 작업을 효과적으로 분할함을 보여줍니다. 비전-언어 모델을 통한 추가 클러스터링 및 정량적 평가는 발견된 동작 기본 요소의 의미적 일관성을 확인합니다. 이는 비구조화된 산업 비디오에서 VLA 사전 학습 데이터를 추출하고 구성하는 최초의 완전 자동화된 종단간 시스템이며, 제조 분야에서 구체화된 AI 통합을 위한 확장 가능한 솔루션을 제공합니다.