본 논문은 기계 학습 및 최적화에서 널리 사용되는 소프트맥스 함수의 립시츠 연속성에 대한 포괄적인 분석을 수행합니다. 특히, 소프트맥스 함수가 모든 $\ell_p$ 노름 ($p \ge 1$)에 대해 균일하게 1/2의 립시츠 상수를 갖는다는 것을 증명합니다. 또한, 이 1/2 립시츠 상수가 $p = 1$ 및 $p = \infty$에서 국부적으로 달성되며, $p \in (1,\infty)$에서는 1/2 미만이고 극한에서 1/2에 접근함을 보입니다. 이 결과는 기존의 강건성 보장 및 최적화 알고리즘의 수렴 분석에 대한 이론적 결과들을 개선하는 데 기여하며, 어텐션 기반 아키텍처 및 강화 학습에서의 경험적 연구를 통해 검증되었습니다.