본 논문은 텍스트 내 희망 표현을 분류하기 위한 Transformer 기반 접근 방식을 제시한다. BERT, GPT-2, DeBERTa의 세 가지 아키텍처를 바이너리 분류 (희망 vs. 희망 아님) 및 다중 클래스 분류 (5가지 희망 관련 범주)에 대해 개발 및 비교했다. BERT는 가장 높은 성능을 보였고, GPT-2는 가장 낮은 성능을 보였다.
시사점, 한계점
•
BERT가 다른 아키텍처보다 우수한 성능을 보였으며, 적은 계산 자원을 사용했다.
•
GPT-2는 전반적으로 낮은 정확도를 보였지만, 풍자 감지에 특화된 강점을 나타냈다.
•
DeBERTa는 중간 정도의 결과를 보였지만, 더 높은 계산 비용을 요구했다.
•
본 연구는 희망의 계산적 분석 프레임워크를 제공하여, 정신 건강 및 소셜 미디어 분석에 적용할 수 있다.