Sign In
해봄의 아카이브

조정효 교수님의 정보기하학과 머신러닝 3부작

Haebom
서울대학교 물리학과 조정효 교수님이 작년에 기고하신 정보기하학과 머신러닝이 어떻게 연관되어 있고 인공지능 분야에서 수학이 얼마나 중요한지을 알 수 있는 시리즈 형태의 글 입니다.
개인적으로 아는 박사님이 추천해줘서 읽었는데 무척 재미있게 잘 써주셔서 서 추천하고자 끌어올려 봅니다.
머신러닝의 모형은 분류모형과 생성모형으로 구분됨.
확률을 사용하여 모형 표현 가능.
분류모형은 조건부 확률 P(y|x;θ)로 표현되며, 생성모형은 데이터 x의 확률 P(x;θ)에 해당.
확률모형을 이용하여 확률이 높은 데이터 x를 선택하는 샘플 생성 가능.
지수족(exponential family)의 확률모형을 중심으로 설명.
지수족의 확률모형은 누적생성함수를 통해 누적을 계산할 수 있음.
브레그만 거리를 활용하여 확률모형 사이의 거리를 정의 가능.
지수족 확률모형의 브레그만 거리는 피타고라스 정리와 관련 있음.
본래공간과 쌍대공간에서 투사를 이용하여 모형 간의 거리를 구할 수 있음.
쿨백-라이블러 거리는 확률모형 사이의 거리를 정의하는 방법 중 하나이다.
쿨백-라이블러 거리를 사용하면 데이터 압축과 관련된 충분통계량을 구할 수 있음.
충분통계량은 모형의 매개변수를 추정하는 데 필요한 정보를 담고 있으며, 다른 정보는 무관하다.
변수변환을 통해 확률모형 사이의 거리를 측정할 때, 정보의 손실이 일어나기 때문에 거리는 줄어든다.
f-거리는 오목함수를 이용한 거리 측정 방법 중 하나이다.
쿨백-라이블러 거리는 충분통계량에 대해서도 불변한 특별한 거리이다.
쿨백-라이블러 거리는 머신러닝에서 모형 비교나 데이터 분포 비교에 자주 사용된다.
최적화를 위해 경사하강법을 사용하는 것이 중요하다.
자연스러운 경사하강법은 목적함수의 곡률을 고려하여 매개변수를 갱신하는데 더 효과적이다.
자연스러운 경사하강법은 척도 변화에도 불변하다.
경사하강법과 자연스러운 경사하강법은 관련성이 있으며, 자연스러운 경사하강법은 르장드르 변환에 해당하는 오목함수를 사용한다.
쌍대공간을 이용한 거울하강법은 자연스러운 경사하강법을 포함한다.
거울하강법은 곡률을 고려하지 않고도 자연스러운 경사하강을 할 수 있다.
데이터에 의존적인 브레그만 거리를 사용하면 데이터를 고려하면서 모형의 매개변수를 갱신할 수 있다.
모형들 사이의 거리와 목적함수의 곡률은 머신러닝에서 중요한 기하학적 개념이다.
정보기하학과 머신러닝의 발전은 서로 연관되어 있다.
Subscribe to 'haebom'
Subscribe to my site to be the first to receive notifications and emails about the latest updates, including new posts.
Join Slashpage and subscribe to 'haebom'!
Subscribe
1
Haebom
참고 하시면 좋습니다.
Maths_for_ML.pdf5.47MB
😇
1
See latest comments