본 논문은 인공지능 시스템에서 증명 가능한 정확성과 광범위한 데이터 매핑 능력 간의 근본적인 트레이드오프를 공식화하는 추측을 제시합니다. 기존의 상징적 AI처럼 연역적으로 완벽한 보장(출력의 오류 없는 특성에 대한 명백한 확실성)을 위해 설계된 AI 시스템은 작동 영역이 좁고 사전에 구조화되어야 합니다. 반대로, 현대의 생성 모델처럼 고차원 데이터를 입력하여 풍부한 정보 출력을 생성할 수 있는 시스템은 반드시 0 오류 성능의 가능성을 포기하고, 오류나 잘못된 분류의 불가피한 위험을 감수해야 합니다. 이전에는 암묵적이었던 이러한 트레이드오프를 명시적이고 엄격한 검증에 개방함으로써, 본 추측은 AI에 대한 엔지니어링적 야망과 철학적 기대를 상당히 재구성합니다. 본 논문은 이러한 긴장의 역사적 동기를 검토한 후, 정보 이론적 형태로 추측을 명시하고, 인식론, 형식적 검증 및 기술 철학에 대한 광범위한 논쟁 속에서 이를 문맥화합니다. 그런 다음, 불확정성, 신중한 인식론적 위험 및 도덕적 책임의 개념을 활용하여 그 함의와 결과를 분석합니다. 이 논의는 추측이 정확하다면 평가 표준, 거버넌스 프레임워크 및 하이브리드 시스템 설계를 어떻게 재구성하는 데 도움이 될지 명확히 합니다. 결론적으로 신뢰할 수 있는 AI의 미래를 위해 결국 이 부등식을 증명하거나 반증하는 것이 중요함을 강조합니다.