본 논문은 CPU/GPU 및 HBM/DRAM과 같은 기술을 통합하는 이기종 칩렛 기반 시스템의 확장성을 개선하는 데 초점을 맞추고 있다. 온패키지 분리를 통해 Interposer Network-on-Interposer(NoI)에서 대기 시간이 발생한다는 문제점을 지적하며, 대규모 모델 추론 과정에서 파라미터와 활성화 값이 HBM/DRAM 간에 빈번하게 이동하여 인터포저에 대규모 버스트 흐름을 유발한다는 점을 강조한다. 이러한 메모리 기반 전송은 테일 레이턴시를 증가시키고 SLA를 위반한다. 이를 해결하기 위해 최악의 경우의 지연을 정량화하는 간섭 점수(IS)를 도입하고, NoI 합성을 다중 목표 최적화(MOO) 문제로 공식화했다. PARL(Partition-Aware Reinforcement Learner)을 개발하여 처리량, 지연 시간 및 전력을 균형 있게 유지하는 토폴로지를 생성한다. PARL로 생성된 토폴로지는 메모리 컷에서 경합을 줄이고, SLA를 충족하며, 최악의 경우 지연 시간을 1.2배로 줄이면서도 링크가 풍부한 메시와 경쟁력 있는 평균 처리량을 유지한다.