Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Opinion Mining and Analysis Using Hybrid Deep Neural Networks

Created by
  • Haebom
Category
Empty

저자

Adel Hidri, Suleiman Ali Alsaif, Muteeb Alahmari, Eman AlShehri, Minyar Sassi Hidri

개요

소셜 미디어와 전자 상거래의 영향력 증가로 고객 태도 이해가 중요해짐에 따라, 텍스트 기반 의견 분석의 중요성이 커지고 있습니다. 기존의 어휘 기반 접근 방식과 전통적인 머신러닝 기법은 문맥적 뉘앙스와 확장성을 처리하는 데 한계가 있었습니다. 딥러닝(DL)은 재귀 신경망(RNN)과 컨볼루션 신경망(CNN)을 통해 의미 관계를 포착하는 데 개선을 보였습니다. 본 연구는 양방향 게이트 재귀 유닛(BGRU)과 장단기 메모리(LSTM) 레이어를 결합한 하이브리드 딥 신경망 모델(HBGRU-LSTM)을 도입하여, 특히 문맥적 뉘앙스, 확장성 및 클래스 불균형 문제를 해결하여 감성 분석을 개선하는 것을 목표로 합니다. IMDB 영화 비평 및 Amazon 제품 평가 벤치마크 데이터 세트를 사용하여 HBGRU-LSTM 아키텍처를 실험한 결과, 95%의 테스트 정확도를 달성하여 LSTM (93.06%), CNN+LSTM (93.31%), GRU+LSTM (92.20%)과 같은 기존 DL 프레임워크의 성능을 능가했습니다. 또한, 불균형 데이터 세트에서 86%였던 부정적 감성에 대한 재현율이 균형 데이터 세트에서 96%로 향상되었으며, 불균형 데이터 세트에서 20.24%였던 오분류 손실은 균형 데이터 세트에서 13.3%로 감소하여 일반화 성능과 견고성이 향상되었습니다.

시사점, 한계점

시사점:
하이브리드 딥러닝 모델(HBGRU-LSTM)을 활용한 감성 분석 성능 향상 (95% 정확도).
부정적 감성에 대한 재현율 향상 (86% -> 96%).
오분류 손실 감소를 통한 모델의 일반화 성능 및 견고성 향상.
한계점:
논문에 제시된 한계점은 명시되지 않음.
👍