본 논문은 기존의 few-shot Neural Architecture Search (NAS) 방법들의 계산 비효율성과 비최적 분할 문제를 해결하기 위해, 가중치 결합 문제를 새로운 관점에서 분석합니다. 후속 레이어의 서로 다른 모듈이 이전 레이어 모듈에 상반되는 기울기 방향을 부과하는 것에서 기인한다는 관점에서, Gradient Contribution (GC) 방법을 제안합니다. GC는 슈퍼넷 역전파 중 벡터-야코비안 곱을 분해하여 모듈 간 기울기 방향의 코사인 유사도를 효율적으로 계산하고, 상반되는 기울기 방향을 가진 모듈은 서로 다른 서브-슈퍼넷에 할당하고 유사한 모듈은 그룹화합니다. 또한, 기존 Graph Neural Architecture Search (GNAS) 방법들의 한계(단일 유형의 GNN만 탐색)를 해결하기 위해, MPNNs와 GTs의 최적 조합을 탐색하는 Unified Graph Neural Architecture Search (UGAS) 프레임워크를 제안합니다. 실험 결과, GC는 슈퍼넷 분할 품질과 시간 효율성 면에서 최첨단 성능을 달성하며, UGAS+GC에 의해 탐색된 아키텍처는 수동으로 설계된 GNN과 기존 NAS 방법에 의해 얻어진 아키텍처보다 성능이 우수함을 보여줍니다. 추가적인 ablation study를 통해 제안된 모든 방법의 효과를 입증합니다.