인공지능(AI)의 괄목할 만한 발전은 컴퓨터 아키텍처의 혁신과 밀접하게 연관되어 있다. 복잡성이 증가하는 AI 모델, 특히 딥 뉴럴 네트워크(DNN)의 대규모 계산 요구 사항은 기존 아키텍처의 한계를 초과하게 만들었다. 본 논문은 현대 AI 워크로드를 가속화하기 위해 설계된 아키텍처 환경을 분석하여 이러한 동시 진화를 체계적으로 검토한다. GPU, ASIC, FPGA와 같은 지배적인 아키텍처 패러다임을 설계 철학, 주요 기능 및 성능 트레이드 오프를 중심으로 탐구한다. 데이터 흐름 최적화, 고급 메모리 계층 구조, 희소성, 양자화 등 성능 및 에너지 효율성에 필수적인 핵심 원리를 분석한다. 또한, PIM 및 뉴로모픽 컴퓨팅과 같은 새로운 기술을 살펴본다. 산업 표준 벤치마크의 정량적 성능 데이터를 통해 아키텍처 원리를 종합하여 AI 가속기 환경의 종합적인 그림을 제시한다. AI와 컴퓨터 아키텍처는 공생 관계에 있으며, 하드웨어-소프트웨어 공동 설계는 더 이상 최적화가 아닌 컴퓨팅의 미래 발전을 위한 필수 요소임을 결론으로 제시한다.