본 논문은 다중 작업 강화 학습(MTRL)에서 복잡한 아키텍처 설계보다는 모델 크기 확장이 성능 향상에 더 큰 영향을 미친다는 것을 주장합니다. 단순한 MTRL 기준 모델의 파라미터 수를 복잡한 아키텍처 모델과 동일하게 늘렸을 때, 단순 모델이 더 나은 성능을 보였다는 실험 결과를 제시합니다. 특히, 비평가(critic) 네트워크의 파라미터 확장이 효과적임을 밝혔습니다. 또한, 다양한 작업을 동시에 학습하는 것이 플라스티시티 손실(plasticity loss)을 완화하는 데 도움이 된다는 것을 보여줍니다. 결론적으로, 복잡한 아키텍처 혁신보다 다양한 작업의 동시 학습을 통한 파라미터 확장이 MTRL의 성능 향상에 더 효과적임을 시사합니다.