본 논문은 의료, 보안, 금융, 로봇 공학과 같이 고위험 실세계 영역에 머신러닝 모델과 자율 에이전트가 점점 더 많이 배치됨에 따라 투명하고 신뢰할 수 있는 설명에 대한 필요성이 절실해짐을 강조합니다. AI 의사 결정의 엔드-투-엔드 투명성을 보장하기 위해 정확할 뿐만 아니라 완전히 설명 가능하고 사람이 조정할 수 있는 모델이 필요합니다. 이 논문에서는 등급 논리(graded logic)를 사용하여 의사 결정 문제에 대한 설명 가능한 AI 모델을 자동으로 훈련하는 새로운 프레임워크인 BACON을 소개합니다. BACON은 높은 예측 정확도를 달성하는 동시에 완전한 구조적 투명성과 정확한 논리 기반 기호적 설명을 제공하여 효과적인 인간-AI 협업과 전문가 주도의 개선을 가능하게 합니다. 논문에서는 고전적인 부울 근사, 붓꽃 분류, 주택 구매 결정 및 유방암 진단 등 다양한 시나리오를 통해 BACON을 평가합니다. 각 경우 BACON은 고성능 모델을 제공하는 동시에 사람이 검증할 수 있는 간결한 의사 결정 논리를 생성합니다. 이러한 결과는 BACON이 명확하고 신뢰할 수 있는 설명 가능한 AI를 제공하는 실용적이고 원칙적인 접근 방식으로서의 잠재력을 보여줍니다.