본 논문은 딥러닝에서 널리 사용되는 최적화 알고리즘인 Adam의 이론적 이해를 심층적으로 탐구한다. 특히, Adam의 암묵적 편향이 배치 크기와 데이터셋에 따라 어떻게 달라지는지 분석한다. 선형 분리 가능한 데이터에 대한 점진적 Adam (한 번에 하나의 샘플 사용)의 암묵적 편향을 연구하여, 전체 배치 Adam의 $\ell_\infty$ 편향과 다른 $\ell_2$-max-margin 분류기에 수렴할 수 있음을 입증한다. 또한, 점진적 Adam의 극한 동작을 포착하는 프록시 알고리즘을 개발하고, 데이터 종속적인 이중 고정점 공식을 통해 수렴 방향을 특징짓는다. 마지막으로, Signum 알고리즘은 배치 크기에 관계없이 $\ell_\infty$-max-margin 분류기에 수렴함을 증명하여, Adam과는 다른 불변성을 보여준다.