본 논문은 인공지능(AI) 의사결정 시스템에서 모델의 해석성과 예측 정확도 간의 균형을 맞추는 데 중요한 역할을 하는 구조적 근사에 대해 다룹니다. 거친 집합 이론(CST)을 도입하여 거친 윤리(CE)를 공식화하는 수학적 틀을 제시하며, 이는 인간 평가와 AI 분류 시스템에서 일반적으로 사용되는 거친 입자의 의사결정 과정을 모델링합니다. CST는 전순서 구조와 거친 사상을 사용하여 집합 간의 계층적 관계를 정의하여 의사결정의 세분성을 동적으로 조정할 수 있도록 합니다. 또한 거친 평가는 효율성과 정보 유지 간의 상충 관계를 본질적으로 포함하며, 정밀도를 희생하여 복잡한 데이터 표현을 단순화합니다. 이러한 상충 관계를 정량적으로 평가하기 위해 Kullback-Leibler (KL) Divergence를 거친 평가에서의 정보 손실 척도로 도입하여 거친 분할이 의사결정 정확도에 미치는 영향을 보여줍니다. 본 연구는 채점 시스템, 자동 추천 및 위험 평가에 CST를 적용하여 AI 기반 의사결정의 공정성 향상, 편향 감소 및 투명성 향상에 대한 잠재력을 보여줍니다.