본 연구는 생성형 AI가 학계에 확산됨에 따라 발생하는 정책과 실제 간의 괴리를 분석하기 위해, 감사 가능한 정렬 지표에 대한 수요를 충족하고자 한다. 이를 위해, 10개 문항으로 구성된 간접적 질문 방식을 활용한 도구를 프로토타입으로 개발하고, 구조화된 해석 프레임워크를 적용하여 기관의 규칙과 실무자의 AI 사용 간의 격차를 파악한다. 이 프레임워크는 학계 구성원들로부터 경험적, 인식론적 신호를 추출하여 세 가지 지표를 도출한다: (1) AI 통합 평가 능력 (대리 지표) - AI 시험 허용 비율, (2) 부문별 필요성 (대리 지표) - AI의 기여도를 높게 평가하는 고산출 제어 사용자가 AI가 기존 학문을 위협할 수 있다고 판단하는 비율, (3) 존재론적 입장 - AI를 기존 도구와 다른 종류로 판단하고, 실천적 변화를 보고하며, 메타인지 관문을 통과한 응답자들의 물질적/비물질적 관점의 분할.