ReLU 신경망을 분석하기 위한 새로운 이론적 틀로서 ReLU 전이 그래프(RTG)라는 조합 객체를 제시합니다. 각 노드는 네트워크의 활성 패턴에 의해 유도된 선형 영역에 해당하고, 에지는 단일 뉴런 플립에 의해 차이가 나는 영역을 연결합니다. 이 구조를 기반으로 RTG 기하학과 표현력, 일반화, 강건성을 연결하는 새로운 이론적 결과들을 도출합니다. RTG 크기와 직경에 대한 엄격한 조합적 경계, RTG 연결성 증명, VC 차원의 그래프 이론적 해석 등이 포함됩니다. 또한 RTG의 엔트로피와 평균 차수를 일반화 오류와 관련짓습니다. 각 이론적 결과는 다양한 네트워크 깊이, 너비 및 데이터 체제에 걸쳐 신중하게 제어된 실험을 통해 엄격하게 검증됩니다. 본 연구는 그래프 이론을 통해 ReLU 네트워크 구조를 처음으로 통합적으로 다루고, RTG 분석에 기반한 압축, 정규화 및 복잡도 제어에 대한 새로운 방향을 제시합니다.