본 논문에서는 Adam 알고리즘을 확장하여 확률적 경사 하강법 샘플링 기법을 통합한 새로운 최적화 알고리즘인 StochGradAdam을 제안합니다. StochGradAdam은 학습 중 일부 경사만 선택적으로 샘플링하여 계산 비용을 줄이면서 Adam의 적응적 학습률 및 바이어스 보정의 장점을 유지합니다. 이미지 분류 및 분할 작업에 대한 실험 결과, StochGradAdam은 반복당 더 적은 경사 업데이트를 사용하더라도 Adam과 비슷하거나 더 나은 성능을 달성할 수 있음을 보여줍니다. 주요 경사 업데이트에 집중함으로써 StochGradAdam은 안정적인 수렴과 손실 지형의 향상된 탐색을 제공하고, 노이즈 경사의 영향을 완화합니다. 이러한 결과는 대규모 모델 및 데이터셋에 특히 효과적이며, 심층 학습 응용 프로그램에 대한 기존 최적화 기법에 대한 유망한 대안임을 시사합니다.