본 논문은 특화된 작업을 위해 설계된 도메인별 대규모 언어 모델(LLM)의 문제점(투명성 부족, 미세 조정 비용, 프롬프트 엔지니어링 필요, 일관성 없는 결과, 환경 영향)을 해결하기 위해 베이지안 네트워크 LLM 융합(BNLF) 프레임워크를 제안합니다. BNLF는 FinBERT, RoBERTa, BERTweet 세 개의 LLM의 예측을 확률적 메커니즘을 통해 통합하여 감성 분석을 수행합니다. 여러 LLM의 감성 예측을 베이지안 네트워크 내 확률 노드로 모델링하여 후기 융합을 수행합니다. 세 개의 금융 데이터셋에서 평가한 결과, BNLF는 기본 LLM보다 약 6%의 정확도 향상을 보이며, 데이터셋 변동에 대한 강건성과 해석 가능한 감성 분류를 위한 확률적 융합의 효과를 입증했습니다.