본 논문은 상충될 수 있는 여러 목표를 동시에 최적화하는 다중 목표 학습(MOL)에서 사용되는 고전적인 체비셰프 스칼라화(TCH) 기법의 최적화 문제를 다룹니다. 기존 TCH의 minimax 공식화로 인한 훈련 불안정성을 해결하기 위해, 제안된 적응형 온라인 거울 하강 알고리즘(Ada)OMD-TCH는 온라인-배치 변환 방식을 개선하여 더 나은 해의 최적성을 달성합니다. 이 알고리즘은 $m$개의 목표와 $T$번의 라운드에 대해 $\mathcal O(\sqrt{\log m/T})$의 수렴 속도를 가지며, 이는 기존 연구보다 더 효율적인 목표 수 의존성을 보여줍니다.