로그인
해봄의 아카이브

조정효 교수님의 정보기하학과 머신러닝 3부작

Haebom
서울대학교 물리학과 조정효 교수님이 작년에 기고하신 정보기하학과 머신러닝이 어떻게 연관되어 있고 인공지능 분야에서 수학이 얼마나 중요한지을 알 수 있는 시리즈 형태의 글 입니다.
개인적으로 아는 박사님이 추천해줘서 읽었는데 무척 재미있게 잘 써주셔서 서 추천하고자 끌어올려 봅니다.
머신러닝의 모형은 분류모형과 생성모형으로 구분됨.
확률을 사용하여 모형 표현 가능.
분류모형은 조건부 확률 P(y|x;θ)로 표현되며, 생성모형은 데이터 x의 확률 P(x;θ)에 해당.
확률모형을 이용하여 확률이 높은 데이터 x를 선택하는 샘플 생성 가능.
지수족(exponential family)의 확률모형을 중심으로 설명.
지수족의 확률모형은 누적생성함수를 통해 누적을 계산할 수 있음.
브레그만 거리를 활용하여 확률모형 사이의 거리를 정의 가능.
지수족 확률모형의 브레그만 거리는 피타고라스 정리와 관련 있음.
본래공간과 쌍대공간에서 투사를 이용하여 모형 간의 거리를 구할 수 있음.
쿨백-라이블러 거리는 확률모형 사이의 거리를 정의하는 방법 중 하나이다.
쿨백-라이블러 거리를 사용하면 데이터 압축과 관련된 충분통계량을 구할 수 있음.
충분통계량은 모형의 매개변수를 추정하는 데 필요한 정보를 담고 있으며, 다른 정보는 무관하다.
변수변환을 통해 확률모형 사이의 거리를 측정할 때, 정보의 손실이 일어나기 때문에 거리는 줄어든다.
f-거리는 오목함수를 이용한 거리 측정 방법 중 하나이다.
쿨백-라이블러 거리는 충분통계량에 대해서도 불변한 특별한 거리이다.
쿨백-라이블러 거리는 머신러닝에서 모형 비교나 데이터 분포 비교에 자주 사용된다.
최적화를 위해 경사하강법을 사용하는 것이 중요하다.
자연스러운 경사하강법은 목적함수의 곡률을 고려하여 매개변수를 갱신하는데 더 효과적이다.
자연스러운 경사하강법은 척도 변화에도 불변하다.
경사하강법과 자연스러운 경사하강법은 관련성이 있으며, 자연스러운 경사하강법은 르장드르 변환에 해당하는 오목함수를 사용한다.
쌍대공간을 이용한 거울하강법은 자연스러운 경사하강법을 포함한다.
거울하강법은 곡률을 고려하지 않고도 자연스러운 경사하강을 할 수 있다.
데이터에 의존적인 브레그만 거리를 사용하면 데이터를 고려하면서 모형의 매개변수를 갱신할 수 있다.
모형들 사이의 거리와 목적함수의 곡률은 머신러닝에서 중요한 기하학적 개념이다.
정보기하학과 머신러닝의 발전은 서로 연관되어 있다.
'haebom' 구독하기
사이트를 구독하면 새 포스트 등 최신 업데이트를 알림과 메일로 가장 먼저 받아보실 수 있습니다.
Slashpage에 가입하고 'haebom'을 구독하세요!
구독
1
Haebom
참고 하시면 좋습니다.
Maths_for_ML.pdf5.47MB
😇
1
최신 댓글 더보기