Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Explainable Sentiment Analysis with DeepSeek-R1: Performance, Efficiency, and Few-Shot Learning

Created by
  • Haebom
Category
Empty

저자

Donghao Huang, Zhaoxia Wang

개요

본 논문은 최근 발전된 대규모 언어 모델(LLM)의 감정 분석 능력을 종합적으로 평가한 연구입니다. 특히 오픈소스 LLM인 DeepSeek-R1 시리즈 모델의 감정 분석 성능을 OpenAI의 GPT-4 및 GPT-4-mini와 비교 분석했습니다. 몇 번의 예시(few-shot prompting)를 사용하여 최대 50개의 예시까지 확장하며 문맥 내 학습 효과를 평가했고, DeepSeek-R1이 특히 다중 클래스 감정 분석 과제에서 경쟁력 있는 정확도를 보이며 상세한 추론 과정을 통해 향상된 해석력을 제공함을 밝혔습니다. 또한, 몇 번의 예시를 늘리는 것이 모델 성능에 미치는 영향과 해석력과 계산 효율성 사이의 주요 trade-off를 논의합니다.

시사점, 한계점

시사점:
DeepSeek-R1 모델이 다중 클래스 감정 분석에서 경쟁력 있는 성능을 보임을 확인.
DeepSeek-R1 모델의 상세한 추론 과정을 통해 향상된 해석력을 제공.
몇 번의 예시 학습의 효과를 정량적으로 분석하여 문맥 내 학습 전략 개선에 기여.
해석력과 계산 효율성 사이의 trade-off를 명확히 제시하여 향후 모델 개발 방향 제시.
한계점:
DeepSeek-R1 시리즈 모델만을 대상으로 한 연구이므로 다른 오픈소스 LLM과의 비교 분석이 추가적으로 필요.
몇 번의 예시 학습에 대한 분석이 주로 이루어져, 다른 학습 방식(fine-tuning 등)에 대한 비교 분석이 부족.
실제 응용 분야에 대한 적용 및 성능 평가가 부족.
👍