Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Contrastive Cross-Course Knowledge Tracing via Concept Graph Guided Knowledge Transfer

Created by
  • Haebom

저자

Wenkang Han, Wang Lin, Liya Hu, Zhenlong Dai, Yiyun Zhou, Mengze Li, Zemin Liu, Chang Yao, Jingyuan Chen

개요

본 논문은 기존 지식 추적(KT) 모델의 단일 과정 데이터 중심적 접근의 한계를 극복하고자, 과정 간 지식 전이를 활용하는 새로운 방법인 TransKT를 제안합니다. TransKT는 영(zero-shot) 대규모 언어 모델(LLM) 프롬프트를 활용하여 다양한 과정의 관련 개념 간 암묵적 연결을 구축하는 과정 간 개념 그래프를 생성합니다. 이 그래프를 기반으로 지식 전이를 수행하여, 과정 간 학습 행동의 의미적 특징을 통합하고 강화함으로써 학습자의 지식 상태 추정을 향상시킵니다. 또한, 요약된 의미적 특징을 통합하는 LLM-to-LM 파이프라인과 단일 과정 및 과정 간 지식 상태를 정렬하는 대조적 목표 함수를 도입하여, 학습자의 전반적인 지식 상태를 더욱 정확하게 나타내는 모델을 구축합니다. 결과적으로, 그래프 합성곱 네트워크(GCN)의 성능을 향상시켜 더욱 정확한 지식 상태 추정을 가능하게 합니다.

시사점, 한계점

시사점:
다양한 과정의 학습 데이터를 활용하여 학습자의 지식 상태를 더욱 포괄적으로 파악할 수 있는 새로운 지식 추적 방법을 제시합니다.
영(zero-shot) LLM을 활용한 과정 간 개념 연결 및 지식 전이 기법은 다른 분야의 지식 추적 연구에도 적용 가능한 범용적인 방법론을 제시합니다.
LLM-to-LM 파이프라인과 대조적 학습을 통해 GCN의 성능을 향상시켜 더욱 정확한 지식 상태 추정을 가능하게 합니다.
한계점:
LLM 프롬프트 엔지니어링에 대한 의존도가 높아, 프롬프트 설계의 질에 따라 성능이 크게 영향을 받을 수 있습니다.
과정 간 개념 연결의 정확성에 대한 검증이 필요하며, 잘못된 연결로 인한 오류 가능성이 존재합니다.
대규모 데이터셋과 컴퓨팅 자원이 필요하여, 실제 적용에 대한 비용 효율성을 고려해야 합니다.
제안된 방법론의 일반화 성능에 대한 추가적인 실험 및 분석이 필요합니다.
👍