본 논문은 교육, 의료, 교통 등 윤리적으로 민감한 영역에서 AI 시스템의 사용이 증가함에 따라 정확성과 해석 가능성 사이의 균형 문제를 해결하기 위해 제시된 이론적 틀인 '거친 윤리(Coarse Ethics, CE)'를 수학적으로 공식화한 '거친 집합 이론(Coarse Set Theory, CST)'을 소개한다. CST는 전순서 구조와 거친 분할을 이용하여 거친 의사결정을 모델링하고, 집합 간의 계층적 관계를 정의하며, 쿨백-라이블러 발산과 같은 정보 이론적 도구를 사용하여 단순화와 정보 손실 간의 상충관계를 정량화한다. 교육 평가와 설명 가능한 AI(XAI) 분야에 CST를 적용하여 더욱 투명하고 맥락에 맞는 평가가 가능함을 보여주며, 집합 이론과 확률적 추론에 기반하여 해석 가능한 AI 시스템의 윤리적 설계에 기여한다. 결론적으로, 본 논문은 형식적 방법과 인간 중심 윤리를 연결하여 AI 기반 의사결정에서 이해력, 공정성, 정보 무결성 간의 균형을 맞추는 원칙적인 접근 방식을 제시한다.