Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

TG-NAS: Generalizable Zero-Cost Proxies with Operator Description Embedding and Graph Learning for Efficient Neural Architecture Search

Created by
  • Haebom

저자

Ye Qiao, Jingcheng Li, Haocheng Xu, Sitao Huang

개요

본 논문은 고성능 CNN 아키텍처를 발견하는 강력한 기술인 Neural Architecture Search (NAS)에서 기존의 비용이 많이 드는 훈련이나 광범위한 샘플링에 의존하는 방법들의 한계를 극복하기 위해, 훈련이 필요 없는 Zero-shot NAS를 제안합니다. 기존의 Zero-shot NAS는 아키텍처 성능을 예측하는 프록시를 사용하지만, 종종 매개변수 수나 FLOPs와 같은 간단한 지표보다 성능이 떨어지고 서로 다른 검색 공간에서 일반화가 잘 되지 않는다는 문제점이 있습니다. 본 논문에서는 Transformer 기반 연산자 임베딩 생성기와 Graph Convolutional Network (GCN)을 결합한 범용적인 모델 기반 Zero-cost (ZC) 프록시인 TG-NAS를 제안합니다. TG-NAS는 재훈련이 필요 없고 임의의 검색 공간에서 일반화되며, 데이터 효율성, 강건성, 공간 간 일관성이 뛰어납니다. 다양한 NAS 벤치마크에 대한 광범위한 평가를 통해 TG-NAS가 기존 프록시보다 우수한 순위 상관관계와 일반화 성능을 보임을 보여줍니다. 또한, 검색 효율성을 최대 300배까지 향상시키고 NAS-Bench-201에서 93.75% CIFAR-10 정확도, DARTS 공간에서 74.9% ImageNet top-1 정확도를 달성하는 아키텍처를 발견합니다.

시사점, 한계점

시사점:
Transformer와 GCN을 결합한 새로운 Zero-cost NAS 프록시인 TG-NAS를 제안하여 기존 방법들의 한계를 극복.
재훈련 없이 임의의 검색 공간에서 일반화 가능하며, 데이터 효율성, 강건성, 공간 간 일관성이 우수.
검색 효율성을 최대 300배 향상시키고 높은 정확도를 달성하는 아키텍처 발견.
효율적이고 일반화 가능한 NAS를 위한 유망한 기반을 마련.
한계점:
본 논문에서 제시된 TG-NAS의 성능이 모든 NAS 문제에 대해 최적이라고 단정할 수 없음. 특정한 검색 공간이나 아키텍처 유형에 대해서는 성능이 저하될 가능성이 있음.
TG-NAS의 일반화 성능은 다양한 벤치마크에서 평가되었지만, 실제 애플리케이션에 적용했을 때의 성능은 추가적인 검증이 필요함.
Transformer와 GCN의 복잡성으로 인해 계산 비용이 상대적으로 높을 수 있음. 이는 특히 매우 큰 검색 공간을 다룰 때 문제가 될 수 있음.
👍