Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Do LLMs Memorize Recommendation Datasets? A Preliminary Study on MovieLens-1M

Created by
  • Haebom

저자

Dario Di Palma, Felice Antonio Merra, Maurizio Sfilio, Vito Walter Anelli, Fedelucio Narducci, Tommaso Di Noia

개요

본 논문은 대규모 언어 모델(LLM)이 추천 시스템에서 널리 사용되는 MovieLens-1M 데이터셋을 얼마나 기억하는지 조사합니다. GPT와 Llama 계열의 여러 크기의 모델들을 대상으로 아이템 속성, 사용자 프로필, 사용자-아이템 상호작용을 얼마나 재현할 수 있는지를 측정하여 기억 정도를 평가하고, 이러한 기억이 추천 성능에 미치는 영향을 분석합니다. 결과적으로 모든 모델이 MovieLens-1M 데이터셋을 어느 정도 기억하고 있으며, 기억 정도가 추천 성능과 관련이 있음을 발견했습니다. 코드는 공개적으로 제공됩니다.

시사점, 한계점

시사점:
LLM 기반 추천 시스템 연구에서 데이터셋 기억 문제의 심각성을 보여줌.
LLM의 추천 성능 평가 시 데이터셋 기억 여부를 고려해야 함을 강조.
모델 크기 및 종류에 따라 데이터셋 기억 정도가 다름을 확인.
LLM의 데이터 기억 문제 해결을 위한 후속 연구 필요성 제시.
한계점:
MovieLens-1M 데이터셋 하나에만 집중하여 일반화에 제한이 있음.
다른 추천 데이터셋이나 LLM 모델에 대한 추가 연구 필요.
데이터셋 기억 문제 해결 방안에 대한 구체적인 제시 부족.
👍