본 논문은 인공지능(AI) 의사결정 시스템에서 해석 가능성과 예측 정확도 간의 균형을 맞추는 데 중요한 역할을 하는 구조적 근사에 대해 다룹니다. 조악 집합 이론(CST)을 도입하여 인간 평가 및 AI 분류 시스템에서 일반적으로 사용되는 조악한 의사결정 과정을 모델링하는 조악 윤리(CE)를 공식화하는 수학적 틀을 제시합니다. CST는 전순서 구조와 조악 사상을 사용하여 집합 간의 계층적 관계를 정의하여 의사결정 세분성을 동적으로 조정할 수 있도록 합니다. 또한 조악 평가는 복잡한 데이터 표현을 단순화하는 대신 정밀도를 희생하여 효율성과 정보 유지 간의 상충 관계를 내포합니다. 이러한 상충 관계를 정량적으로 평가하기 위해 Kullback-Leibler (KL) Divergence를 조악 평가의 정보 손실 척도로 도입하여 조악 분할이 의사결정 정확도에 미치는 영향을 보여줍니다. 본 연구는 채점 시스템, 자동 추천 및 위험 평가에 CST를 적용하여 AI 기반 의사결정의 공정성 향상, 편향 감소 및 투명성 향상 가능성을 보여줍니다.