본 논문은 음성, 음악 및 오디오 처리에서 근본적인 과제인 소스 분리를 다룬다. 특히, 훈련 및 배포 비용을 증가시키는 대규모 네트워크 의존성 문제를 해결하고자, 훈련 시간 및 추론 시간 확장 가능한 판별적 소스 분리 (TISDiSS) 프레임워크를 제안한다. TISDiSS는 early-split multi-loss supervision, shared-parameter design, dynamic inference repetitions을 통합하여 추가 모델 재훈련 없이 추론 깊이를 조정함으로써 유연한 속도-성능 트레이드 오프를 가능하게 한다. 제안된 방법은 저지연 응용 분야에 유용하며, 표준 음성 분리 벤치마크에서 매개변수 수를 줄이면서도 최고 성능을 달성한다.