본문은 유튜브 채널 'AI는 내 친구'의 <수학없는 인공지능 강의>를 시청하고 정리한 글입니다.
앞서, 딥러닝의 인공신경망은 인간의 뇌를 본따 만들어진 구조라고 했다. 쉬운 이해를 위해, 퍼셉트론의 기반이 된 '뉴런(neuron)'을 먼저 살펴보고자 한다.
뉴런
뇌의 기본 단위인 신경세포. 뇌에는 약 40억개쯤 분포하고 있다.
- 전압이 변화하면서 상태가 변한다. 전압은 신호로 작용한다. (팍팍팍팍 튄다!)
- 전기 신호를 받아들여 다음 뉴런으로 전달한다.
시냅스
뉴런 간의 연결점
- 신경전달물질(neurotransmitter)이 전기 신호를 전달한다.
- 자주 사용할수록 신호 전달이 강해진다.
→ 시냅스는 학습의 기본단위이다.
- 연결의 상태가 지능을 결정한다.
뉴런의 3가지 연산
- (1) 더하기, 빼기
더하기: 신호 통합, 빼기: 반대 방향의 신호 - (2) 곱하기
시냅스의 세기 - (3) 변형하기
뉴런의 성질에 따라, 받아들인 신호를 변형한다.
→ 뉴런은 계산의 기본단위이다.
퍼셉트론
가장 간단한 구조의 인공신경망, 즉 인공 뉴런.
- input: 다른 뉴런에서 준 신호
- weight: 시냅스의 세기 (학습의 정도)
- sum: 합 (뉴런의 더하기 연산)
- activation function(활성함수): 변형 (뉴런의 변형하기 연산)
- 계단형 함수: 0 또는 1
- 불확실성을 고려하여 sigmoid 함수와 같이, 부드럽게 올라가는 함수를 사용할 수 있다.
- 계단형 함수: 0 또는 1
퍼셉트론의 학습 (== 오차 줄이기!)
학습 규칙: 원하는 출력값과의 오차가 감소하도록 들을 변경
(비유: 포식자에 대한 시신경으로부터의 신호 민감도 상승)
출력값이 맞는 답이 되도록 를 갱신해줘야 하는데, 오차를 계산하기 위해 cost function을 사용한다.
(예)
↳ 오차가 크면 큰 숫자, 작으면 작은 숫자를 낸다.
퍼셉트론의 학습 규칙은 정답과의 오차를 줄여나가는 것인데, 이를 위해서 오차가 감소하는 방향으로 를 조정할 수 있고, 이를 Gradient Descent(경사하강법) 이라 한다.
신호가 일치하면 를 강화하고, 다르면 를 약화시키는 방식으로 를 조정할 수 있고, 이처럼 오차를 최소화하는 과정을 Hebbian Learning Rule 이라 한다.
참조
- [수학없는 인공지능 강의#2] 인공지능 머신러닝 딥러닝 - 딥러닝 핵심정리 7항목 | KAIST AI STUDIO
- [수학없는 인공지능 강의 #3] 딥러닝 기초 1.뉴런의 3가지 연산 | KAIST AI STUDIO
- [수학없는 인공지능 강의 #4] 딥러닝 핵심정리 퍼셉트론 1편 | KAIST AI STUDIO
- [수학없는 인공지능 강의 #5] 딥러닝 핵심정리 퍼셉트론 학습과 Gradient Decent | KAIST AI STUDIO
'인공지능' 카테고리의 다른 글
텐서(tensor), 그리고 선형 모델 (0) | 2022.03.08 |
---|---|
Linear Regression & Logistic Regression (0) | 2022.03.08 |
[수학없는 인공지능] 인공지능의 역사와 기초 (0) | 2022.03.08 |
[수학없는 인공지능] 다층신경망 (Multi-layer Perceptron) (0) | 2022.03.08 |
[수학없는 인공지능] 딥러닝 알고리즘 소개 (0) | 2022.03.08 |