Share
Sign In
📄

인공신경망

인공신경망이란?
인공지능에서 딥러닝 알고리즘으로 기계를 학습 시기키 위해 사람의 생체 신경망 구조를 본떠 만든 인공의 신경망이다. 특히 생체 신경망의 정보인지 메커니즘과 사람의 과거 경험으로부터 현재의 자신을 개선 및 향상하려는 노력을 인공지능에 적용하기 위해 고안되었다.
인공신경망의 원리
위의 인공신경망 정의에서 살펴보았듯이 인공신경망은 생체 신경망의 구조와 원리를 본떠 만들었다. 인공신경망의 구조와 원리를 알기 이전에 생체 신경망의 구조에 대해 알아야 한다.
생체 신경망의 구조와 인간의 학습
[그림 1] 뉴런과 흥분의 전달과정 / 그림 출처: Wikimedia Commons
생체 신경망은 무수히 많은 신경세포인 뉴런(Neuron), 뉴런과 뉴런을 잇는 시냅스(Synapse)로 이루어져 있다. 그 뉴런은 신경세포체를 포함하는 가지돌기와 긴 축삭돌기로 이루어져 있으며 이 축삭돌기는 다시 다른 뉴런의 가지돌기와 연결되어있다.
신호 전달과정
뉴런의 신경전달방식의 일부는 전기적이고 일부는 화학적이다. 뉴런의 내부에 가지돌기에서 받은 신호를 축삭돌기를 거쳐 신경 말단까지 신호를 전달하는 방법은 전기적인 방법이다. 뉴런은 세포 밖과 내부의 전위차가 존재하는데, 이때 어떤 자극이 뉴런의 축삭돌기를 흥분시켜 역치(Threshold) 이상의 자극이 주어지면 활동 전위가 발생하여 이 전기적 신호가 신경 말단까지 이동하게 된다. 신경 말단의 시냅스 사이에서의 뉴런 간의 신호 전달과정은 화학적이다. 신경 말단까지 이동한 전기적 신호에의해 시냅스 소낭 속 신경전달물질이 분비되어, 신호를 받는 뉴런의 수상돌기와 세포체에 있는 수용기에 부착되어 신호가 전달된다.
인간의 경험과 학습
인간의 학습은 시냅스의 수 의해 좌우된다. 특정 시냅스의 활성이 다른 시냅스들과 연관되면 이 시냅스의 연결은 강화되고, 다른 시냅스와의 연관성을 잃게 되면 이 시냅스의 연결은 약화된다. 이렇게 외부의 자극, 경험, 학습에 의해 시냅스가 증가하고 감소하면서 전체적인 신경계의 구조가 재조정되어 인간은 학습하게 되고 기억하게 된다. 이때 뉴런의 수가 증가하는 것이 아닌, 시냅스 수가 증가하고 뉴런 사이의 연결강도(Connectivity)가 높아진다.
인공신경망의 구조와 기계학습
인공신경망의 구조
인공신경망(Artificial neural network, ANN)은 딥러닝의 가장 핵심적인 기술로, 여러 개의 층(Layer)으로 이루어져 있고 각층의 노드(Node)가 존재하여 다른 층의 노드와 복잡하게 연결되어있는 다음 그림과 같은 구조이다.
인공신경망은 입력층(Input layer)과 은닉층(Hidden layer) 그리고 출력층(Output layer)으로 구성되어있고, 은닉층은 하나 또는 다수의 층으로 구성될 수 있다. 이러한 인공신경망의 구조는 뉴런이 많은 층으로 구성된 것과 유사하다.
생체 신경망에서 뉴런의 기능을 모방하기 위해 각 노드가 활성화 함수를 이용하게 된다.
활성화 함수
인공신경망은 생체 신경망의 구조를 추상화하여 만들어졌다. 생체 신경망의 신호 전달과정에서 살펴보았듯이, 뉴런은 입력을 받았을 때 즉시 반응하지 않는다. 입력이 누적되어 특정 수준(Threshold)에 도달된 경우에만 신호를 출력하게 된다. 이처럼 입력신호를 받아 역치를 넘어서 는 경우에만 출력신호를 전달하는 함수를 활성화 함수(Activation Function)라고 한다.
활성화 함수에는 여러 가지 종류가 있는데 S자 모양의 시그모이드(Sigmoid) 함수와 ReLU가 많이 사용되고 있다. 이외에도 Leaky ReLU, ELU, tanh, Maxout 등 많은 종류의 활성화 함수가 있다.
[그림 3] 시그모이드 함수
활성화 함수에는 구체적으로 입력값 에 가중치(Weight) 를 곱한 값에 편향(Bias)을 더한 값의 수식이 된다.
기계의 학습과 경험
사람의 학습 과정에서 외부의 자극에의해 시냅수의 수가 증가하고 시냅스 사이의 연결이 강화되어 비로소 학습을 할 수 있었다. 기계도 마찬가지로 학습에의해 각 노드 사이의 연결강도인 가중치 를 반복적으로 갱신하고 학습에 따라 문턱값을 반복적으로 갱신한다. 이를 역전파(Backpropagation)라고 한다. 역전파를 활용하여 학습을 강화하고 약화하며 기계학습의 신뢰도를 높이게 된다.
인공지능의 미래
인공신경망의 기술적 기반을 둔 딥러닝, 큰 범위에서 인공지능은 인간의 학습과정과 매우 유사한 것을 알 수 있었다. 복잡한 연산이 힘들었던 과거와는 달리 컴퓨터 기술의 발전으로 점차 수백개의 층으로 수천만의 연결 고리를 갖는 복잡한 연산도 가능해졌다.
2016년의 인간과 인공지능의 대결로 우리를 놀라게 했던 딥마인드(DeepMind Technologies Limited)가 개발한 알파고를 우리는 잘 기억하고 있다. 또한 의료계에서는 AI의사 왓슨(Watson)이 환자의 상태를 분석해 의사들의 암 진단과 진료를 돕고 있다.
세계적인 IT 리서치 기관인 가트너(Gartner)의 부사장은 이 중 인공지능은 “증강현실, 사물인터넷, 에지 컴퓨팅, 디지털트윈 등과 함께 이용되어 고도로 통합된 스마트 공간을 제공할 것”이라고 말하면서, 궁극적으로 “비전문가들도 인공지능 관련 도구를 이용하여 자동적으로 새로운 솔루션을 만들어낼 수 있는 ‘시민 애플리케이션 개발자’의 새 시대를 열 것”이라고 말했다.
이처럼 인공지능이 앞으로 다가올 우리의 사회의 전반적인 부분에서 활용되어 더 나은 미래, 더 나은 사회, 더 나은 가치로 한 걸음 다가갈 것으로 생각한다.
참고문헌
(1) 강봉균, 「기억과 시냅스 가소성」, 한국 뇌 학회지, Vol. 1, No. 1, pp. 11-24, 2012.
(2) 조성배, 김진형, 「인공 신경망의 계산 복잡도」, 한국정보과학회 학술발표, Vol. 1, No. 2, pp. 315-316, 1989.
(3) Brunch, ”코싸인의 인지과학 이야기 기억(9)”, https://brunch.co.kr/@cogsciin/15
(2020.09.10.)
(4) Wikipedia, “Activation function”, https://en.wikipedia.org/wiki/Activation_function (2020.09.10.)
(5) Medium, “Neural Networks Bias And Weights”, https://medium.com/fintechexplained/neural-networks-bias-and-weights-10b53e6285da (2020.09.10)
(6) Tistory, “인공신경망의 개념 및 용어”,
https://saintbinary.tistory.com/6#:~:text=%EC%9D%B8%EA%B3%B5%EC%8B%A0%EA%B2%BD%EB%A7%9D%EC%9D%80%20%EC%8B%A0%ED%98%B8%EB%A5%BC,%ED%95%98%EA%B2%8C%20%EC%9D%B4%ED%95%B4%ED%95%98%EB%A9%B4%20%EB%90%A0%20%EA%B2%83%EC%9D%B4%EB%8B%A4 (2020.09.10.)
(7) 국경완, 「인공지능 기술 및 산업 분야별 적용 사례」, 주간기술동향, 2019
강의자료
교수님 강의 PDF 미리보기
Report PDF 미리보기
인공지능 개론 홈으로 돌아가기
인공지능 개론
AI 홈으로 돌아가기
인공지능 개론
메인으로 돌아가기
인공신경망이란?
인공지능에서 딥러닝 알고리즘으로 기계를 학습 시기키 위해 사람의 생체 신경망 구조를 본떠 만든 인공의 신경망이다. 특히 생체 신경망의 정보인지 메커니즘과 사람의 과거 경험으로부터 현재의 자신을 개선 및 향상하려는 노력을 인공지능에 적용하기 위해 고안되었다.
인공신경망의 원리
위의 인공신경망 정의에서 살펴보았듯이 인공신경망은 생체 신경망의 구조와 원리를 본떠 만들었다. 인공신경망의 구조와 원리를 알기 이전에 생체 신경망의 구조에 대해 알아야 한다.
생체 신경망의 구조와 인간의 학습
[그림 1] 뉴런과 흥분의 전달과정 / 그림 출처: Wikimedia Commons
생체 신경망은 무수히 많은 신경세포인 뉴런(Neuron), 뉴런과 뉴런을 잇는 시냅스(Synapse)로 이루어져 있다. 그 뉴런은 신경세포체를 포함하는 가지돌기와 긴 축삭돌기로 이루어져 있으며 이 축삭돌기는 다시 다른 뉴런의 가지돌기와 연결되어있다.
신호 전달과정
뉴런의 신경전달방식의 일부는 전기적이고 일부는 화학적이다. 뉴런의 내부에 가지돌기에서 받은 신호를 축삭돌기를 거쳐 신경 말단까지 신호를 전달하는 방법은 전기적인 방법이다. 뉴런은 세포 밖과 내부의 전위차가 존재하는데, 이때 어떤 자극이 뉴런의 축삭돌기를 흥분시켜 역치(Threshold) 이상의 자극이 주어지면 활동 전위가 발생하여 이 전기적 신호가 신경 말단까지 이동하게 된다. 신경 말단의 시냅스 사이에서의 뉴런 간의 신호 전달과정은 화학적이다. 신경 말단까지 이동한 전기적 신호에의해 시냅스 소낭 속 신경전달물질이 분비되어, 신호를 받는 뉴런의 수상돌기와 세포체에 있는 수용기에 부착되어 신호가 전달된다.
인간의 경험과 학습
인간의 학습은 시냅스의 수 의해 좌우된다. 특정 시냅스의 활성이 다른 시냅스들과 연관되면 이 시냅스의 연결은 강화되고, 다른 시냅스와의 연관성을 잃게 되면 이 시냅스의 연결은 약화된다. 이렇게 외부의 자극, 경험, 학습에 의해 시냅스가 증가하고 감소하면서 전체적인 신경계의 구조가 재조정되어 인간은 학습하게 되고 기억하게 된다. 이때 뉴런의 수가 증가하는 것이 아닌, 시냅스 수가 증가하고 뉴런 사이의 연결강도(Connectivity)가 높아진다.
인공신경망의 구조와 기계학습
인공신경망의 구조
인공신경망(Artificial neural network, ANN)은 딥러닝의 가장 핵심적인 기술로, 여러 개의 층(Layer)으로 이루어져 있고 각층의 노드(Node)가 존재하여 다른 층의 노드와 복잡하게 연결되어있는 다음 그림과 같은 구조이다.
인공신경망은 입력층(Input layer)과 은닉층(Hidden layer) 그리고 출력층(Output layer)으로 구성되어있고, 은닉층은 하나 또는 다수의 층으로 구성될 수 있다. 이러한 인공신경망의 구조는 뉴런이 많은 층으로 구성된 것과 유사하다.
생체 신경망에서 뉴런의 기능을 모방하기 위해 각 노드가 활성화 함수를 이용하게 된다.
활성화 함수
인공신경망은 생체 신경망의 구조를 추상화하여 만들어졌다. 생체 신경망의 신호 전달과정에서 살펴보았듯이, 뉴런은 입력을 받았을 때 즉시 반응하지 않는다. 입력이 누적되어 특정 수준(Threshold)에 도달된 경우에만 신호를 출력하게 된다. 이처럼 입력신호를 받아 역치를 넘어서 는 경우에만 출력신호를 전달하는 함수를 활성화 함수(Activation Function)라고 한다.
활성화 함수에는 여러 가지 종류가 있는데 S자 모양의 시그모이드(Sigmoid) 함수와 ReLU가 많이 사용되고 있다. 이외에도 Leaky ReLU, ELU, tanh, Maxout 등 많은 종류의 활성화 함수가 있다.
[그림 3] 시그모이드 함수
활성화 함수에는 구체적으로 입력값 에 가중치(Weight) 를 곱한 값에 편향(Bias)을 더한 값의 수식이 된다.
기계의 학습과 경험
사람의 학습 과정에서 외부의 자극에의해 시냅수의 수가 증가하고 시냅스 사이의 연결이 강화되어 비로소 학습을 할 수 있었다. 기계도 마찬가지로 학습에의해 각 노드 사이의 연결강도인 가중치 를 반복적으로 갱신하고 학습에 따라 문턱값을 반복적으로 갱신한다. 이를 역전파(Backpropagation)라고 한다. 역전파를 활용하여 학습을 강화하고 약화하며 기계학습의 신뢰도를 높이게 된다.
인공지능의 미래
인공신경망의 기술적 기반을 둔 딥러닝, 큰 범위에서 인공지능은 인간의 학습과정과 매우 유사한 것을 알 수 있었다. 복잡한 연산이 힘들었던 과거와는 달리 컴퓨터 기술의 발전으로 점차 수백개의 층으로 수천만의 연결 고리를 갖는 복잡한 연산도 가능해졌다.
2016년의 인간과 인공지능의 대결로 우리를 놀라게 했던 딥마인드(DeepMind Technologies Limited)가 개발한 알파고를 우리는 잘 기억하고 있다. 또한 의료계에서는 AI의사 왓슨(Watson)이 환자의 상태를 분석해 의사들의 암 진단과 진료를 돕고 있다.
세계적인 IT 리서치 기관인 가트너(Gartner)의 부사장은 이 중 인공지능은 “증강현실, 사물인터넷, 에지 컴퓨팅, 디지털트윈 등과 함께 이용되어 고도로 통합된 스마트 공간을 제공할 것”이라고 말하면서, 궁극적으로 “비전문가들도 인공지능 관련 도구를 이용하여 자동적으로 새로운 솔루션을 만들어낼 수 있는 ‘시민 애플리케이션 개발자’의 새 시대를 열 것”이라고 말했다.
이처럼 인공지능이 앞으로 다가올 우리의 사회의 전반적인 부분에서 활용되어 더 나은 미래, 더 나은 사회, 더 나은 가치로 한 걸음 다가갈 것으로 생각한다.
참고문헌
(1) 강봉균, 「기억과 시냅스 가소성」, 한국 뇌 학회지, Vol. 1, No. 1, pp. 11-24, 2012.
(2) 조성배, 김진형, 「인공 신경망의 계산 복잡도」, 한국정보과학회 학술발표, Vol. 1, No. 2, pp. 315-316, 1989.
(3) Brunch, ”코싸인의 인지과학 이야기 기억(9)”, https://brunch.co.kr/@cogsciin/15
(2020.09.10.)
(4) Wikipedia, “Activation function”, https://en.wikipedia.org/wiki/Activation_function (2020.09.10.)
(5) Medium, “Neural Networks Bias And Weights”, https://medium.com/fintechexplained/neural-networks-bias-and-weights-10b53e6285da (2020.09.10)
(6) Tistory, “인공신경망의 개념 및 용어”,
https://saintbinary.tistory.com/6#:~:text=%EC%9D%B8%EA%B3%B5%EC%8B%A0%EA%B2%BD%EB%A7%9D%EC%9D%80%20%EC%8B%A0%ED%98%B8%EB%A5%BC,%ED%95%98%EA%B2%8C%20%EC%9D%B4%ED%95%B4%ED%95%98%EB%A9%B4%20%EB%90%A0%20%EA%B2%83%EC%9D%B4%EB%8B%A4 (2020.09.10.)
(7) 국경완, 「인공지능 기술 및 산업 분야별 적용 사례」, 주간기술동향, 2019
강의자료
교수님 강의 PDF 미리보기
Report PDF 미리보기
인공지능 개론 홈으로 돌아가기
인공지능 개론
AI 홈으로 돌아가기
인공지능 개론
메인으로 돌아가기
인공신경망이란?
인공지능에서 딥러닝 알고리즘으로 기계를 학습 시기키 위해 사람의 생체 신경망 구조를 본떠 만든 인공의 신경망이다. 특히 생체 신경망의 정보인지 메커니즘과 사람의 과거 경험으로부터 현재의 자신을 개선 및 향상하려는 노력을 인공지능에 적용하기 위해 고안되었다.
인공신경망의 원리
위의 인공신경망 정의에서 살펴보았듯이 인공신경망은 생체 신경망의 구조와 원리를 본떠 만들었다. 인공신경망의 구조와 원리를 알기 이전에 생체 신경망의 구조에 대해 알아야 한다.
생체 신경망의 구조와 인간의 학습
[그림 1] 뉴런과 흥분의 전달과정 / 그림 출처: Wikimedia Commons
생체 신경망은 무수히 많은 신경세포인 뉴런(Neuron), 뉴런과 뉴런을 잇는 시냅스(Synapse)로 이루어져 있다. 그 뉴런은 신경세포체를 포함하는 가지돌기와 긴 축삭돌기로 이루어져 있으며 이 축삭돌기는 다시 다른 뉴런의 가지돌기와 연결되어있다.
신호 전달과정
뉴런의 신경전달방식의 일부는 전기적이고 일부는 화학적이다. 뉴런의 내부에 가지돌기에서 받은 신호를 축삭돌기를 거쳐 신경 말단까지 신호를 전달하는 방법은 전기적인 방법이다. 뉴런은 세포 밖과 내부의 전위차가 존재하는데, 이때 어떤 자극이 뉴런의 축삭돌기를 흥분시켜 역치(Threshold) 이상의 자극이 주어지면 활동 전위가 발생하여 이 전기적 신호가 신경 말단까지 이동하게 된다. 신경 말단의 시냅스 사이에서의 뉴런 간의 신호 전달과정은 화학적이다. 신경 말단까지 이동한 전기적 신호에의해 시냅스 소낭 속 신경전달물질이 분비되어, 신호를 받는 뉴런의 수상돌기와 세포체에 있는 수용기에 부착되어 신호가 전달된다.
인간의 경험과 학습
인간의 학습은 시냅스의 수 의해 좌우된다. 특정 시냅스의 활성이 다른 시냅스들과 연관되면 이 시냅스의 연결은 강화되고, 다른 시냅스와의 연관성을 잃게 되면 이 시냅스의 연결은 약화된다. 이렇게 외부의 자극, 경험, 학습에 의해 시냅스가 증가하고 감소하면서 전체적인 신경계의 구조가 재조정되어 인간은 학습하게 되고 기억하게 된다. 이때 뉴런의 수가 증가하는 것이 아닌, 시냅스 수가 증가하고 뉴런 사이의 연결강도(Connectivity)가 높아진다.
인공신경망의 구조와 기계학습
인공신경망의 구조
인공신경망(Artificial neural network, ANN)은 딥러닝의 가장 핵심적인 기술로, 여러 개의 층(Layer)으로 이루어져 있고 각층의 노드(Node)가 존재하여 다른 층의 노드와 복잡하게 연결되어있는 다음 그림과 같은 구조이다.
인공신경망은 입력층(Input layer)과 은닉층(Hidden layer) 그리고 출력층(Output layer)으로 구성되어있고, 은닉층은 하나 또는 다수의 층으로 구성될 수 있다. 이러한 인공신경망의 구조는 뉴런이 많은 층으로 구성된 것과 유사하다.
생체 신경망에서 뉴런의 기능을 모방하기 위해 각 노드가 활성화 함수를 이용하게 된다.
활성화 함수
인공신경망은 생체 신경망의 구조를 추상화하여 만들어졌다. 생체 신경망의 신호 전달과정에서 살펴보았듯이, 뉴런은 입력을 받았을 때 즉시 반응하지 않는다. 입력이 누적되어 특정 수준(Threshold)에 도달된 경우에만 신호를 출력하게 된다. 이처럼 입력신호를 받아 역치를 넘어서 는 경우에만 출력신호를 전달하는 함수를 활성화 함수(Activation Function)라고 한다.
활성화 함수에는 여러 가지 종류가 있는데 S자 모양의 시그모이드(Sigmoid) 함수와 ReLU가 많이 사용되고 있다. 이외에도 Leaky ReLU, ELU, tanh, Maxout 등 많은 종류의 활성화 함수가 있다.
[그림 3] 시그모이드 함수
활성화 함수에는 구체적으로 입력값 에 가중치(Weight) 를 곱한 값에 편향(Bias)을 더한 값의 수식이 된다.
기계의 학습과 경험
사람의 학습 과정에서 외부의 자극에의해 시냅수의 수가 증가하고 시냅스 사이의 연결이 강화되어 비로소 학습을 할 수 있었다. 기계도 마찬가지로 학습에의해 각 노드 사이의 연결강도인 가중치 를 반복적으로 갱신하고 학습에 따라 문턱값을 반복적으로 갱신한다. 이를 역전파(Backpropagation)라고 한다. 역전파를 활용하여 학습을 강화하고 약화하며 기계학습의 신뢰도를 높이게 된다.
인공지능의 미래
인공신경망의 기술적 기반을 둔 딥러닝, 큰 범위에서 인공지능은 인간의 학습과정과 매우 유사한 것을 알 수 있었다. 복잡한 연산이 힘들었던 과거와는 달리 컴퓨터 기술의 발전으로 점차 수백개의 층으로 수천만의 연결 고리를 갖는 복잡한 연산도 가능해졌다.
2016년의 인간과 인공지능의 대결로 우리를 놀라게 했던 딥마인드(DeepMind Technologies Limited)가 개발한 알파고를 우리는 잘 기억하고 있다. 또한 의료계에서는 AI의사 왓슨(Watson)이 환자의 상태를 분석해 의사들의 암 진단과 진료를 돕고 있다.
세계적인 IT 리서치 기관인 가트너(Gartner)의 부사장은 이 중 인공지능은 “증강현실, 사물인터넷, 에지 컴퓨팅, 디지털트윈 등과 함께 이용되어 고도로 통합된 스마트 공간을 제공할 것”이라고 말하면서, 궁극적으로 “비전문가들도 인공지능 관련 도구를 이용하여 자동적으로 새로운 솔루션을 만들어낼 수 있는 ‘시민 애플리케이션 개발자’의 새 시대를 열 것”이라고 말했다.
이처럼 인공지능이 앞으로 다가올 우리의 사회의 전반적인 부분에서 활용되어 더 나은 미래, 더 나은 사회, 더 나은 가치로 한 걸음 다가갈 것으로 생각한다.
참고문헌
(1) 강봉균, 「기억과 시냅스 가소성」, 한국 뇌 학회지, Vol. 1, No. 1, pp. 11-24, 2012.
(2) 조성배, 김진형, 「인공 신경망의 계산 복잡도」, 한국정보과학회 학술발표, Vol. 1, No. 2, pp. 315-316, 1989.
(3) Brunch, ”코싸인의 인지과학 이야기 기억(9)”, https://brunch.co.kr/@cogsciin/15
(2020.09.10.)
(4) Wikipedia, “Activation function”, https://en.wikipedia.org/wiki/Activation_function (2020.09.10.)
(5) Medium, “Neural Networks Bias And Weights”, https://medium.com/fintechexplained/neural-networks-bias-and-weights-10b53e6285da (2020.09.10)
(6) Tistory, “인공신경망의 개념 및 용어”,
https://saintbinary.tistory.com/6#:~:text=%EC%9D%B8%EA%B3%B5%EC%8B%A0%EA%B2%BD%EB%A7%9D%EC%9D%80%20%EC%8B%A0%ED%98%B8%EB%A5%BC,%ED%95%98%EA%B2%8C%20%EC%9D%B4%ED%95%B4%ED%95%98%EB%A9%B4%20%EB%90%A0%20%EA%B2%83%EC%9D%B4%EB%8B%A4 (2020.09.10.)
(7) 국경완, 「인공지능 기술 및 산업 분야별 적용 사례」, 주간기술동향, 2019
강의자료
교수님 강의 PDF 미리보기
Report PDF 미리보기
인공지능 개론 홈으로 돌아가기
인공지능 개론
AI 홈으로 돌아가기
인공지능 개론
메인으로 돌아가기
인공신경망이란?
인공지능에서 딥러닝 알고리즘으로 기계를 학습 시기키 위해 사람의 생체 신경망 구조를 본떠 만든 인공의 신경망이다. 특히 생체 신경망의 정보인지 메커니즘과 사람의 과거 경험으로부터 현재의 자신을 개선 및 향상하려는 노력을 인공지능에 적용하기 위해 고안되었다.
인공신경망의 원리
위의 인공신경망 정의에서 살펴보았듯이 인공신경망은 생체 신경망의 구조와 원리를 본떠 만들었다. 인공신경망의 구조와 원리를 알기 이전에 생체 신경망의 구조에 대해 알아야 한다.
생체 신경망의 구조와 인간의 학습
[그림 1] 뉴런과 흥분의 전달과정 / 그림 출처: Wikimedia Commons
생체 신경망은 무수히 많은 신경세포인 뉴런(Neuron), 뉴런과 뉴런을 잇는 시냅스(Synapse)로 이루어져 있다. 그 뉴런은 신경세포체를 포함하는 가지돌기와 긴 축삭돌기로 이루어져 있으며 이 축삭돌기는 다시 다른 뉴런의 가지돌기와 연결되어있다.
신호 전달과정
뉴런의 신경전달방식의 일부는 전기적이고 일부는 화학적이다. 뉴런의 내부에 가지돌기에서 받은 신호를 축삭돌기를 거쳐 신경 말단까지 신호를 전달하는 방법은 전기적인 방법이다. 뉴런은 세포 밖과 내부의 전위차가 존재하는데, 이때 어떤 자극이 뉴런의 축삭돌기를 흥분시켜 역치(Threshold) 이상의 자극이 주어지면 활동 전위가 발생하여 이 전기적 신호가 신경 말단까지 이동하게 된다. 신경 말단의 시냅스 사이에서의 뉴런 간의 신호 전달과정은 화학적이다. 신경 말단까지 이동한 전기적 신호에의해 시냅스 소낭 속 신경전달물질이 분비되어, 신호를 받는 뉴런의 수상돌기와 세포체에 있는 수용기에 부착되어 신호가 전달된다.
인간의 경험과 학습
인간의 학습은 시냅스의 수 의해 좌우된다. 특정 시냅스의 활성이 다른 시냅스들과 연관되면 이 시냅스의 연결은 강화되고, 다른 시냅스와의 연관성을 잃게 되면 이 시냅스의 연결은 약화된다. 이렇게 외부의 자극, 경험, 학습에 의해 시냅스가 증가하고 감소하면서 전체적인 신경계의 구조가 재조정되어 인간은 학습하게 되고 기억하게 된다. 이때 뉴런의 수가 증가하는 것이 아닌, 시냅스 수가 증가하고 뉴런 사이의 연결강도(Connectivity)가 높아진다.
인공신경망의 구조와 기계학습
인공신경망의 구조
인공신경망(Artificial neural network, ANN)은 딥러닝의 가장 핵심적인 기술로, 여러 개의 층(Layer)으로 이루어져 있고 각층의 노드(Node)가 존재하여 다른 층의 노드와 복잡하게 연결되어있는 다음 그림과 같은 구조이다.
인공신경망은 입력층(Input layer)과 은닉층(Hidden layer) 그리고 출력층(Output layer)으로 구성되어있고, 은닉층은 하나 또는 다수의 층으로 구성될 수 있다. 이러한 인공신경망의 구조는 뉴런이 많은 층으로 구성된 것과 유사하다.
생체 신경망에서 뉴런의 기능을 모방하기 위해 각 노드가 활성화 함수를 이용하게 된다.
활성화 함수
인공신경망은 생체 신경망의 구조를 추상화하여 만들어졌다. 생체 신경망의 신호 전달과정에서 살펴보았듯이, 뉴런은 입력을 받았을 때 즉시 반응하지 않는다. 입력이 누적되어 특정 수준(Threshold)에 도달된 경우에만 신호를 출력하게 된다. 이처럼 입력신호를 받아 역치를 넘어서 는 경우에만 출력신호를 전달하는 함수를 활성화 함수(Activation Function)라고 한다.
활성화 함수에는 여러 가지 종류가 있는데 S자 모양의 시그모이드(Sigmoid) 함수와 ReLU가 많이 사용되고 있다. 이외에도 Leaky ReLU, ELU, tanh, Maxout 등 많은 종류의 활성화 함수가 있다.
[그림 3] 시그모이드 함수
활성화 함수에는 구체적으로 입력값 에 가중치(Weight) 를 곱한 값에 편향(Bias)을 더한 값의 수식이 된다.
기계의 학습과 경험
사람의 학습 과정에서 외부의 자극에의해 시냅수의 수가 증가하고 시냅스 사이의 연결이 강화되어 비로소 학습을 할 수 있었다. 기계도 마찬가지로 학습에의해 각 노드 사이의 연결강도인 가중치 를 반복적으로 갱신하고 학습에 따라 문턱값을 반복적으로 갱신한다. 이를 역전파(Backpropagation)라고 한다. 역전파를 활용하여 학습을 강화하고 약화하며 기계학습의 신뢰도를 높이게 된다.
인공지능의 미래
인공신경망의 기술적 기반을 둔 딥러닝, 큰 범위에서 인공지능은 인간의 학습과정과 매우 유사한 것을 알 수 있었다. 복잡한 연산이 힘들었던 과거와는 달리 컴퓨터 기술의 발전으로 점차 수백개의 층으로 수천만의 연결 고리를 갖는 복잡한 연산도 가능해졌다.
2016년의 인간과 인공지능의 대결로 우리를 놀라게 했던 딥마인드(DeepMind Technologies Limited)가 개발한 알파고를 우리는 잘 기억하고 있다. 또한 의료계에서는 AI의사 왓슨(Watson)이 환자의 상태를 분석해 의사들의 암 진단과 진료를 돕고 있다.
세계적인 IT 리서치 기관인 가트너(Gartner)의 부사장은 이 중 인공지능은 “증강현실, 사물인터넷, 에지 컴퓨팅, 디지털트윈 등과 함께 이용되어 고도로 통합된 스마트 공간을 제공할 것”이라고 말하면서, 궁극적으로 “비전문가들도 인공지능 관련 도구를 이용하여 자동적으로 새로운 솔루션을 만들어낼 수 있는 ‘시민 애플리케이션 개발자’의 새 시대를 열 것”이라고 말했다.
이처럼 인공지능이 앞으로 다가올 우리의 사회의 전반적인 부분에서 활용되어 더 나은 미래, 더 나은 사회, 더 나은 가치로 한 걸음 다가갈 것으로 생각한다.
참고문헌
(1) 강봉균, 「기억과 시냅스 가소성」, 한국 뇌 학회지, Vol. 1, No. 1, pp. 11-24, 2012.
(2) 조성배, 김진형, 「인공 신경망의 계산 복잡도」, 한국정보과학회 학술발표, Vol. 1, No. 2, pp. 315-316, 1989.
(3) Brunch, ”코싸인의 인지과학 이야기 기억(9)”, https://brunch.co.kr/@cogsciin/15
(2020.09.10.)
(4) Wikipedia, “Activation function”, https://en.wikipedia.org/wiki/Activation_function (2020.09.10.)
(5) Medium, “Neural Networks Bias And Weights”, https://medium.com/fintechexplained/neural-networks-bias-and-weights-10b53e6285da (2020.09.10)
(6) Tistory, “인공신경망의 개념 및 용어”,
https://saintbinary.tistory.com/6#:~:text=%EC%9D%B8%EA%B3%B5%EC%8B%A0%EA%B2%BD%EB%A7%9D%EC%9D%80%20%EC%8B%A0%ED%98%B8%EB%A5%BC,%ED%95%98%EA%B2%8C%20%EC%9D%B4%ED%95%B4%ED%95%98%EB%A9%B4%20%EB%90%A0%20%EA%B2%83%EC%9D%B4%EB%8B%A4 (2020.09.10.)
(7) 국경완, 「인공지능 기술 및 산업 분야별 적용 사례」, 주간기술동향, 2019
강의자료
교수님 강의 PDF 미리보기
Report PDF 미리보기
인공지능 개론 홈으로 돌아가기
인공지능 개론
AI 홈으로 돌아가기
인공지능 개론
메인으로 돌아가기
인공신경망이란?
인공지능에서 딥러닝 알고리즘으로 기계를 학습 시기키 위해 사람의 생체 신경망 구조를 본떠 만든 인공의 신경망이다. 특히 생체 신경망의 정보인지 메커니즘과 사람의 과거 경험으로부터 현재의 자신을 개선 및 향상하려는 노력을 인공지능에 적용하기 위해 고안되었다.
인공신경망의 원리
위의 인공신경망 정의에서 살펴보았듯이 인공신경망은 생체 신경망의 구조와 원리를 본떠 만들었다. 인공신경망의 구조와 원리를 알기 이전에 생체 신경망의 구조에 대해 알아야 한다.
생체 신경망의 구조와 인간의 학습
[그림 1] 뉴런과 흥분의 전달과정 / 그림 출처: Wikimedia Commons
생체 신경망은 무수히 많은 신경세포인 뉴런(Neuron), 뉴런과 뉴런을 잇는 시냅스(Synapse)로 이루어져 있다. 그 뉴런은 신경세포체를 포함하는 가지돌기와 긴 축삭돌기로 이루어져 있으며 이 축삭돌기는 다시 다른 뉴런의 가지돌기와 연결되어있다.
신호 전달과정
뉴런의 신경전달방식의 일부는 전기적이고 일부는 화학적이다. 뉴런의 내부에 가지돌기에서 받은 신호를 축삭돌기를 거쳐 신경 말단까지 신호를 전달하는 방법은 전기적인 방법이다. 뉴런은 세포 밖과 내부의 전위차가 존재하는데, 이때 어떤 자극이 뉴런의 축삭돌기를 흥분시켜 역치(Threshold) 이상의 자극이 주어지면 활동 전위가 발생하여 이 전기적 신호가 신경 말단까지 이동하게 된다. 신경 말단의 시냅스 사이에서의 뉴런 간의 신호 전달과정은 화학적이다. 신경 말단까지 이동한 전기적 신호에의해 시냅스 소낭 속 신경전달물질이 분비되어, 신호를 받는 뉴런의 수상돌기와 세포체에 있는 수용기에 부착되어 신호가 전달된다.
인간의 경험과 학습
인간의 학습은 시냅스의 수 의해 좌우된다. 특정 시냅스의 활성이 다른 시냅스들과 연관되면 이 시냅스의 연결은 강화되고, 다른 시냅스와의 연관성을 잃게 되면 이 시냅스의 연결은 약화된다. 이렇게 외부의 자극, 경험, 학습에 의해 시냅스가 증가하고 감소하면서 전체적인 신경계의 구조가 재조정되어 인간은 학습하게 되고 기억하게 된다. 이때 뉴런의 수가 증가하는 것이 아닌, 시냅스 수가 증가하고 뉴런 사이의 연결강도(Connectivity)가 높아진다.
인공신경망의 구조와 기계학습
인공신경망의 구조
인공신경망(Artificial neural network, ANN)은 딥러닝의 가장 핵심적인 기술로, 여러 개의 층(Layer)으로 이루어져 있고 각층의 노드(Node)가 존재하여 다른 층의 노드와 복잡하게 연결되어있는 다음 그림과 같은 구조이다.
인공신경망은 입력층(Input layer)과 은닉층(Hidden layer) 그리고 출력층(Output layer)으로 구성되어있고, 은닉층은 하나 또는 다수의 층으로 구성될 수 있다. 이러한 인공신경망의 구조는 뉴런이 많은 층으로 구성된 것과 유사하다.
생체 신경망에서 뉴런의 기능을 모방하기 위해 각 노드가 활성화 함수를 이용하게 된다.
활성화 함수
인공신경망은 생체 신경망의 구조를 추상화하여 만들어졌다. 생체 신경망의 신호 전달과정에서 살펴보았듯이, 뉴런은 입력을 받았을 때 즉시 반응하지 않는다. 입력이 누적되어 특정 수준(Threshold)에 도달된 경우에만 신호를 출력하게 된다. 이처럼 입력신호를 받아 역치를 넘어서 는 경우에만 출력신호를 전달하는 함수를 활성화 함수(Activation Function)라고 한다.
활성화 함수에는 여러 가지 종류가 있는데 S자 모양의 시그모이드(Sigmoid) 함수와 ReLU가 많이 사용되고 있다. 이외에도 Leaky ReLU, ELU, tanh, Maxout 등 많은 종류의 활성화 함수가 있다.
[그림 3] 시그모이드 함수
활성화 함수에는 구체적으로 입력값 에 가중치(Weight) 를 곱한 값에 편향(Bias)을 더한 값의 수식이 된다.
기계의 학습과 경험
사람의 학습 과정에서 외부의 자극에의해 시냅수의 수가 증가하고 시냅스 사이의 연결이 강화되어 비로소 학습을 할 수 있었다. 기계도 마찬가지로 학습에의해 각 노드 사이의 연결강도인 가중치 를 반복적으로 갱신하고 학습에 따라 문턱값을 반복적으로 갱신한다. 이를 역전파(Backpropagation)라고 한다. 역전파를 활용하여 학습을 강화하고 약화하며 기계학습의 신뢰도를 높이게 된다.
인공지능의 미래
인공신경망의 기술적 기반을 둔 딥러닝, 큰 범위에서 인공지능은 인간의 학습과정과 매우 유사한 것을 알 수 있었다. 복잡한 연산이 힘들었던 과거와는 달리 컴퓨터 기술의 발전으로 점차 수백개의 층으로 수천만의 연결 고리를 갖는 복잡한 연산도 가능해졌다.
2016년의 인간과 인공지능의 대결로 우리를 놀라게 했던 딥마인드(DeepMind Technologies Limited)가 개발한 알파고를 우리는 잘 기억하고 있다. 또한 의료계에서는 AI의사 왓슨(Watson)이 환자의 상태를 분석해 의사들의 암 진단과 진료를 돕고 있다.
세계적인 IT 리서치 기관인 가트너(Gartner)의 부사장은 이 중 인공지능은 “증강현실, 사물인터넷, 에지 컴퓨팅, 디지털트윈 등과 함께 이용되어 고도로 통합된 스마트 공간을 제공할 것”이라고 말하면서, 궁극적으로 “비전문가들도 인공지능 관련 도구를 이용하여 자동적으로 새로운 솔루션을 만들어낼 수 있는 ‘시민 애플리케이션 개발자’의 새 시대를 열 것”이라고 말했다.
이처럼 인공지능이 앞으로 다가올 우리의 사회의 전반적인 부분에서 활용되어 더 나은 미래, 더 나은 사회, 더 나은 가치로 한 걸음 다가갈 것으로 생각한다.
참고문헌
(1) 강봉균, 「기억과 시냅스 가소성」, 한국 뇌 학회지, Vol. 1, No. 1, pp. 11-24, 2012.
(2) 조성배, 김진형, 「인공 신경망의 계산 복잡도」, 한국정보과학회 학술발표, Vol. 1, No. 2, pp. 315-316, 1989.
(3) Brunch, ”코싸인의 인지과학 이야기 기억(9)”, https://brunch.co.kr/@cogsciin/15
(2020.09.10.)
(4) Wikipedia, “Activation function”, https://en.wikipedia.org/wiki/Activation_function (2020.09.10.)
(5) Medium, “Neural Networks Bias And Weights”, https://medium.com/fintechexplained/neural-networks-bias-and-weights-10b53e6285da (2020.09.10)
(6) Tistory, “인공신경망의 개념 및 용어”,
https://saintbinary.tistory.com/6#:~:text=%EC%9D%B8%EA%B3%B5%EC%8B%A0%EA%B2%BD%EB%A7%9D%EC%9D%80%20%EC%8B%A0%ED%98%B8%EB%A5%BC,%ED%95%98%EA%B2%8C%20%EC%9D%B4%ED%95%B4%ED%95%98%EB%A9%B4%20%EB%90%A0%20%EA%B2%83%EC%9D%B4%EB%8B%A4 (2020.09.10.)
(7) 국경완, 「인공지능 기술 및 산업 분야별 적용 사례」, 주간기술동향, 2019