본 논문은 다중 작업 강화 학습(MTRL)에서 복잡한 아키텍처 설계보다는 모델의 크기 확장이 성능 향상에 더 큰 영향을 미친다는 점을 밝힙니다. 단순한 MTRL 기준 모델의 파라미터 수를 복잡한 아키텍처 모델 수준으로 확장했을 때, 후자를 능가하는 성능을 보였으며, 특히 비평가(critic) 네트워크의 크기를 확장하는 것이 효과적임을 실험적으로 증명합니다. 또한, 다양한 작업들을 동시에 학습시키는 것이 플라스티시티 손실(plasticity loss)을 완화하는 데 도움이 된다는 점을 보여줍니다. 결론적으로, 복잡한 아키텍처 혁신보다는 MTRL의 다중 작업 동시 학습이 강화 학습에서 파라미터 확장을 위한 효과적인 프레임워크를 제공한다고 주장합니다.