Daily Arxiv

This page organizes papers related to artificial intelligence published around the world.
This page is summarized using Google Gemini and is operated on a non-profit basis.
The copyright of the paper belongs to the author and the relevant institution. When sharing, simply cite the source.

CLLMRec: LLM-powered Cognitive-Aware Concept Recommendation via Semantic Alignment and Prerequisite Knowledge Distillation

Created by
  • Haebom
Category
Empty

저자

Xiangrui Xiong, Yichuan Lu, Zifei Pan, Chang Sun

개요

본 논문은 MOOC 환경에서 개념 추천을 위한 새로운 프레임워크인 CLLMRec을 제안한다. CLLMRec은 고품질의 구조화된 지식 그래프에 의존하지 않고, 대규모 언어 모델(LLM)을 활용하여 개인 맞춤형 학습을 지원한다. Semantic Alignment를 통해 학습자와 개념의 텍스트 설명을 통합 표현 공간으로 구성하고, Prerequisite Knowledge Distillation을 통해 개념 간의 선행 관계를 학습하여 효율적인 랭커를 훈련한다. 또한, 딥 지식 추적을 통해 학습자의 인지 상태를 모델링하여 구조적으로 건전하고 인지적으로 적절한 추천을 제공한다. 실제 MOOC 데이터셋에 대한 실험 결과, CLLMRec은 기존의 방법들을 능가하는 성능을 보였다.

시사점, 한계점

시사점:
구조화된 지식 그래프 없이 LLM을 활용하여 개념 추천 문제를 해결함으로써, 현실적인 교육 환경에서의 적용 가능성을 높임.
Semantic Alignment와 Prerequisite Knowledge Distillation을 통해 LLM의 지식을 효과적으로 활용하고, 효율적인 추천 모델을 구축함.
딥 지식 추적을 통합하여 학습자의 인지 상태를 고려한 개인 맞춤형 추천을 제공함.
실제 MOOC 데이터셋에서 우수한 성능을 입증하여 방법론의 효과성을 검증함.
한계점:
LLM의 성능에 따라 모델의 성능이 제한될 수 있음.
Prerequisite Knowledge Distillation 과정에서 teacher LLM의 정확성에 의존함.
계산 비용이 높을 수 있으며, 대규모 모델을 훈련하고 배포하는 데 어려움이 있을 수 있음.
👍