# Interpretability-Guided Bi-objective Optimization: Aligning Accuracy and Explainability

### 저자

Kasra Fouladi, Hamta Rahmani

### 💡 개요

본 논문은 설명 가능성(interpretability)을 고려한 이중 목적 최적화(bi-objective optimization) 프레임워크인 IGBO를 제안한다. IGBO는 구조화된 도메인 지식을 통합하여 설명 가능한 모델을 학습시키며, 특히 특징 중요도 계층 구조를 DAG로 인코딩하고 Temporal Integrated Gradients(TIG)를 사용하여 특징 중요도를 측정한다. 이를 통해 정확도와 설명 가능성이라는 두 가지 목표를 동시에 최적화하여, 모델의 예측 성능과 더불어 이해 가능성을 높이는 것을 목표로 한다.

### 🔑 시사점 및 한계

- AI/ML 모델의 설명 가능성을 향상시키는 새로운 이중 목적 최적화 프레임워크(IGBO)를 제시하여, 정확도와 설명 가능성의 균형을 맞추는 데 기여한다.

- 특징 중요도 계층 구조를 DAG로 인코딩하고 TIG를 활용하여 모델의 설명력을 정량화하는 독창적인 방법론을 제안한다.

- Out-of-Distribution 문제 해결을 위한 Optimal Path Oracle 아키텍처를 향후 연구 과제로 제시하며, 이는 설명 가능성 방법론의 신뢰성을 높일 수 있는 잠재력을 가진다.

---

[PDF 보기](https://arxiv.org/pdf/2601.00655)

For the site tree, see the [root Markdown](https://slashpage.com/haebom.md).
