본 연구는 pix2pix 기반의 Image-to-Image Generative Adversarial Network (I2I GAN)이 공간 위상 관계를 자율적으로 인식할 수 있는 잠재력을 확인하는 것을 목표로 한다. 건축 디자인 및 도시 재생 분야에서 공간의 내·외적 특성을 고려하는 것이 중요하며, 이를 위해 이미지 및 그래프 기반 GAN이 활용된다. 그러나 모델 중첩 및 데이터 변환 과정에서 정보 손실이 발생할 수 있어, 건축가와 사용자의 설계 참여를 용이하게 하기 위한 도구 간소화가 필요하다. 본 연구에서는 pix2pix가 위상 관계를 학습하는 능력을 신속하게 감지하는 방법을 제안하며, Grasshopper 기반의 두 개의 감지 모듈을 GAN 전후에 추가하여 구현한다. 또한, 정량적 데이터를 제공하고 학습 과정을 시각화하며, 흑백 및 RGB와 같은 다양한 입력 모드가 학습 효율에 미치는 영향을 분석한다.