본 논문은 다중 작업 강화 학습(MTRL)에서 복잡한 아키텍처 설계보다는 모델의 크기 확장이 성능 향상에 더 큰 영향을 미친다는 것을 주장합니다. 단순한 MTRL 기준 모델의 파라미터 수를 복잡한 아키텍처 모델과 동일하게 늘린 결과, 단순 모델이 더 나은 성능을 보였음을 실험적으로 보여줍니다. 특히, 비평가(critic) 네트워크의 크기를 늘리는 것이 성능 향상에 더 효과적임을 밝혔습니다. 또한, 다양한 작업들을 동시에 학습하는 것이 학습 안정성을 높이고 가소성 손실(plasticity loss)을 완화하는 데 도움이 된다는 것을 보여줍니다. 결론적으로, MTRL의 다중 작업 동시 학습은 강화 학습에서 효과적인 파라미터 확장을 위한 자연스러운 틀을 제공하며, 복잡한 아키텍처 혁신의 필요성에 의문을 제기합니다.