본 논문은 선형 상황 밴딧 문제에서 분산 의존적 후회 상한에 대한 연구를 확장하여, 일반적인 분산 시퀀스에 대한 후회 하한을 제시합니다. 기존 연구들은 주로 후회 상한에 집중했지만, 본 논문은 고정된 총 분산 예산이 아닌 일반적인 분산 시퀀스 $\sigma_1^2, \ldots, \sigma_K^2$를 고려합니다. 두 가지 설정, 즉 학습 과정 시작 시 전체 분산 시퀀스가 알려지는 사전 설정 시퀀스와 적응적 시퀀스(적대적 환경에서 각 라운드의 분산이 이전 관측값에 기반하여 생성되는 경우)에 대해 후회 하한을 증명합니다. 사전 설정 시퀀스의 경우 $\Omega(d \sqrt{\sum_{k=1}^K\sigma_k^2 }/\log K)$의 하한을, 적응적 시퀀스의 경우(적대자가 결정 집합 $\mathcal{D}k$를 관측하기 전에 $\sigma_k^2$를 생성해야 하는 경우) $\Omega(d\sqrt{ \sum{k=1}^K\sigma_k^2} /\log^6(dK))$의 하한을 제시하며, 이는 기존 SAVE 알고리즘의 상한과 로그 인자를 제외하고 일치합니다. 이는 기존 Jia et al. (2024)의 하한보다 개선된 결과로, 상한과 하한 사이의 차이를 줄입니다.