본 논문은 대규모 언어 모델(LLM) 캐스케이드 시스템의 신뢰성을 향상시키기 위한 확률적 모델을 제시합니다. LLM의 환각 및 프롬프트 디자인에 대한 높은 민감성으로 인해 개별 LLM의 성능 예측이 어려운데, 캐스케이드와 같은 복합 시스템에서는 각 모델의 오류율 상호작용까지 고려해야 하므로 문제가 더욱 복잡해집니다. 본 연구는 연속 최적화를 이용하여 LLM 캐스케이드의 신뢰 임계값을 합리적으로 조정하는 프레임워크를 제공하는, LLM 시퀀스의 결합 성능 분포를 위한 확률적 모델(Markov-copula 모델)을 제안합니다. 그리드 서치에 비해 계산 시간을 획기적으로 줄이고(캐스케이드 길이 및 비용-오류 곡선 해상도에 대한 확장성을 다항식 수준으로 개선), 특히 모델이 3개 이상인 캐스케이드에서 비용-오류 곡선 아래 면적을 평균 1.9% 향상시키는 최적 임계값을 계산합니다.