यह पत्र आंतरिक तंत्रों की अस्पष्टता की समस्या को संबोधित करता है, विशेष रूप से कृत्रिम बुद्धिमत्ता (एआई) मॉडल की हालिया सफलता के बावजूद, गहरे तंत्रिका नेटवर्क के उपयोग के कारण। हम एआई मॉडल के आंतरिक तंत्रों को समझने और उनके आउटपुट को समझाने के लिए प्रस्तावित कई तरीकों का अध्ययन करते हैं, उन्हें व्याख्यात्मक एआई (एक्सएआई) के क्षेत्र में समूहीकृत करते हैं। विशेष रूप से, हम व्याख्यात्मक सुदृढीकरण सीखने (एक्सआरएल) पर ध्यान केंद्रित करते हैं, जो एक्सएआई का एक उपक्षेत्र है जो सुदृढीकरण सीखने द्वारा सीखे गए एजेंटों के व्यवहार को समझाता है, और दो सवालों के आधार पर एक सहज वर्गीकरण का प्रस्ताव करता है: "क्या" और "कैसे"। "क्या" स्पष्टीकरण की वस्तु पर केंद्रित है, और "कैसे" स्पष्टीकरण की विधि पर केंद्रित है। इस वर्गीकरण का उपयोग करके, हम 250 से अधिक पत्रों के नवीनतम शोध रुझानों की समीक्षा करते हैं