본 논문은 심층 학습 모델(DLMs)의 표상적 지위를 명확히 하는 것을 목표로 합니다. DLMs는 일반적으로 '표상'으로 언급되지만, 기능적 및 관계적 표상 개념의 혼동으로 인해 이것이 무엇을 의미하는지 모호합니다. 본 논문은 DLMs가 관계적 의미에서 대상을 표상하지만, 일반적으로 DLMs가 대상의 국소적으로 의미론적으로 분해 가능한 표상을 인코딩한다고 믿을 만한 좋은 이유가 없다고 주장합니다. 즉, 이러한 모델이 가지는 표상 능력은 대부분 전역적이며, 안정적이고 국소적인 하위 표상으로 분해될 수 없습니다. 이 결과는 설명 가능한 AI(XAI)에 즉각적인 영향을 미치며, 심층 학습 표상의 전역적 관계적 특성과 모델 전반과의 관계를 탐구하고, 미래 과학적 조사에서의 잠재적 역할을 이해하는 데 주의를 환기시킵니다.