Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Menta: A Small Language Model for On-Device Mental Health Prediction

Created by
  • Haebom
Category
Empty

저자

Tianyi Zhang, Xiangyuan Xue, Lingyan Ruan, Shiya Fu, Feng Xia, Simon D'Alfonso, Vassilis Kostakos, Hong Jia

개요

본 연구는 소셜 미디어 데이터를 기반으로 정신 건강 상태를 예측하기 위해 특화된 경량 언어 모델(SLM)인 Menta를 소개합니다. Menta는 LoRA 기반 프레임워크, 교차 데이터셋 전략 및 균형 정확도 지향 손실을 사용하여 6가지 분류 작업을 공동으로 학습합니다. 우울증, 스트레스, 자살 성향 등 다양한 정신 건강 문제를 예측하며, 기존 SLM 및 LLM(대형 언어 모델) 대비 우수한 성능을 보입니다. 또한, 아이폰 15 Pro Max에서 실시간, 온디바이스 배포가 가능하며, 약 3GB의 RAM을 사용합니다.

시사점, 한계점

시사점:
소셜 미디어 데이터를 기반으로 한 정신 건강 예측 분야에서 경량 언어 모델(SLM)의 실용적인 활용 가능성을 제시함.
기존 SLM 대비 15.2%의 성능 향상을 보이며, 13B 파라미터 LLM보다 높은 정확도를 달성함.
아이폰 15 Pro Max에서 실시간, 온디바이스 배포를 통해 확장 가능한 프라이버시 보호 정신 건강 모니터링의 가능성을 보여줌.
한계점:
논문 내용만으로는 구체적인 한계점이 명시되어 있지 않음. (추가 연구 필요)
👍