딥러닝에서 훈련 시 사용된 아키텍처는 추론 시에도 유지된다는 일반적인 가정을 Network of Theseus (NoT)를 통해 극복한다. NoT는 훈련된 (또는 훈련되지 않은) 가이드 네트워크 아키텍처의 구성 요소를 점진적으로 다른 타겟 네트워크 아키텍처로 변환하면서 가이드 네트워크의 성능을 유지하는 방법이다. 각 단계에서 가이드 네트워크의 구성 요소는 타겟 아키텍처 모듈로 대체되고 표현 유사성 메트릭을 통해 정렬된다. 이러한 과정을 통해 컨볼루션 네트워크를 다층 퍼셉트론으로, GPT-2를 순환 신경망으로 변환하는 등 상당한 아키텍처 변경에도 가이드 네트워크의 기능을 유지할 수 있다. NoT는 최적화와 배포를 분리하여 추론 시간 아키텍처의 범위를 확장하고 정확도와 효율성 간의 더 나은 균형을 가능하게 하며, 아키텍처 디자인 공간에 대한 보다 직접적인 탐색을 가능하게 한다.