본 논문은 네트워크 인프라의 AI 워크로드 증가에 대한 해결책으로서 네트워크 내 컴퓨팅(In-network computation)에 대한 포괄적인 분석을 제공합니다. 스위치, 라우터, NIC와 같은 네트워크 장비의 처리 능력을 활용하여 네트워크 패브릭 내에서 직접 AI 연산을 수행함으로써 지연 시간을 줄이고 처리량을 높이며 자원 활용을 최적화하는 방법을 다룹니다. SDN과 PDP와 같은 프로그래밍 가능한 네트워크 아키텍처의 발전과 AI와의 융합을 탐구하고, 제한된 메모리와 계산 능력을 갖춘 네트워크 장치에 AI 모델을 매핑하는 방법론, 효율적인 알고리즘 설계 및 모델 압축 기술을 통해 이러한 과제를 해결하는 방법을 제시합니다. 또한 네트워크 내 집계(in-network aggregation)를 중심으로 한 분산 학습의 발전과 개인 정보 보호 및 확장성을 향상시키는 연합 학습(federated learning)의 잠재력을 강조하며, Planter와 Quark와 같은 개발을 단순화하는 프레임워크와 지능형 네트워크 모니터링, 침입 탐지, 트래픽 관리, 에지 AI와 같은 주요 애플리케이션을 논의합니다. 런타임 프로그래밍 가능성, 표준화된 벤치마크, 새로운 애플리케이션 패러다임을 포함한 미래 연구 방향을 제안하며, 네트워크 내 AI가 차세대 AI 애플리케이션의 요구 사항을 충족할 수 있는 지능적이고 효율적이며 반응성이 뛰어난 네트워크를 만드는 잠재력을 강조합니다.