본 논문은 순차 추천 시스템에서 데이터 희소성 문제를 해결하기 위해 의미론적 정보를 활용한 새로운 contrastive learning 방법인 SRA-CL을 제안합니다. SRA-CL은 대규모 언어 모델(LLM)을 이용하여 사용자 및 아이템의 의미론적 유사성을 파악하고, 이를 바탕으로 신뢰할 수 있는 positive sample pair를 생성합니다. 구체적으로, 사용자 의미론적 검색을 통한 교차 시퀀스 contrastive learning과 아이템 의미론적 검색을 통한 내부 시퀀스 contrastive learning 두 가지 구성 요소로 이루어져 있으며, 기존 contrastive learning 방식의 한계점인 불안정한 positive sample 생성 문제를 해결합니다. 실험 결과, 제안된 방법이 다양한 데이터셋에서 기존 방법들보다 우수한 성능을 보임을 확인했습니다.
시사점, 한계점
•
시사점:
◦
대규모 언어 모델을 활용하여 순차 추천 시스템의 데이터 희소성 문제를 효과적으로 완화할 수 있는 새로운 방법 제시.
◦
의미론적 정보를 기반으로 신뢰할 수 있는 positive sample pair를 생성하여 contrastive learning의 성능 향상.
◦
제안된 SRA-CL은 plug-and-play 방식으로 기존 순차 추천 모델에 쉽게 통합 가능.
◦
다양한 데이터셋에서 우수한 성능과 일반화 성능을 보임.
•
한계점:
◦
LLM 의존도가 높아, LLM의 성능 및 비용에 영향을 받을 수 있음.
◦
LLM을 활용한 의미론적 유사성 측정의 정확성에 따라 성능이 달라질 수 있음.
◦
제안된 방법의 효율성 및 확장성에 대한 추가적인 연구가 필요할 수 있음.
◦
특정 언어 모델에 대한 의존성으로 인해, 다른 언어 모델로의 전환 시 성능 저하 가능성 존재.