본문은 유튜브 채널 'AI는 내 친구'의 <수학없는 인공지능 강의>를 시청하고 정리한 글입니다.
MLP (Multi-layer perceptron)
퍼셉트론을 여러 층으로 쌓은 것. 다층신경망.
MLP의 발달 과정
1) 퍼셉트론이 할 수 있는 일이 제한적이었다.
단일 퍼셉트론으로는 XOR 과 같은 비선형적 문제(nonlinearly separable class)를 풀 수 없었다. (예: XOR)
2) 단일 퍼셉트론의 문제를 발견한 학자들은 층이 여러 개인 신경망으로 위 문제를 해소할 수 있음을 발견했다. 그러나, 층이 여러 개인 만큼 가중치가 부여되는 위치가 증가하므로 이를 학습시키기 힘들 것이라고 생각했다.
3) 위의 우려는 Back propagation(역전파 알고리즘)을 통해 불식되었다.
입력값으로부터 전달되는 신호는 Forward propagation, 출력값으로부터 도출되는 오차값은 반대방향으로 전달되므로 Back propagation이다. (계산은 미분의 Chain Rule을 사용한다. 여기서는 자세히 다루지 않는다.)
즉, MLP를 통해 비선형 문제를 풀 수 있게 되었다.
참조
'인공지능' 카테고리의 다른 글
텐서(tensor), 그리고 선형 모델 (0) | 2022.03.08 |
---|---|
Linear Regression & Logistic Regression (0) | 2022.03.08 |
[수학없는 인공지능] 인공지능의 역사와 기초 (0) | 2022.03.08 |
[수학없는 인공지능] 퍼셉트론 (Perceptron)이란? (0) | 2022.03.08 |
[수학없는 인공지능] 딥러닝 알고리즘 소개 (0) | 2022.03.08 |