세미나에서는 AI 시스템의 판단 구조를 이해하는 방식으로 interpretability(해석 가능성)와 explainability(설명 가능성)의 차이가 강조되었습니다.
모델이 어떤 근거로 특정 판단을 내렸는지를 사후적으로 설명하는 explainability와 달리, interpretability는 그 판단이 사전에 예측 가능하고 구조적으로 이해 가능한 상태를 지향합니다.
이는 시스템의 신뢰성, 검증 가능성, 규제 대응 측면에서 중요한 요소로, 상용 시스템에서는 단순 결과 설명을 넘어서 결정 논리의 구조화가 요구됨을 공유했습니다.