이야기박스
인공지능) Deep Learning 본문
반응형
신경망이 깊어진다면?
Deep Learning
○ 구성
입력층 (1개) --> 은닉(히든) 층 (n-2개) --> 출력 층(1개)
- 층이 많기 때문에, 파라미터 관리가 어렵다
- 멀티 출력이 가능 (출력 뉴런이 n개가 될 수 있음)
- Forwarding processing
: 신경망은 한 방향으로 진행된다.
○ Backpropagation
: Error Back Propagation
- 방법
1. 한단계, 한단계 다 미분
--> 미분의 chain-Rule
2. 에러에 기여한 만큼 거꾸로 곱하여 뒤로 보냄
--> 뒤로 갈 수록 에러가 작아짐
--> 이 에러를 가지고 처리
==> 층이 너무 깊으면, 에러가 너무 희미해져서 Deep Learning이 힘듬
○ 예제
1) Forward Pass
x = [0.05 , 0.10] --> y = [0.01, 0.99] 가 되도록, weight 값 튜닝하는 것 ==> "학습"
- net 과 out의 의미
- 이후 과정,
- 에러 구하기
- 은닉층 -> 출력층 사이의 weight (w5~8)
- 입력층 -> 은닉층 사이의 weight (w1~4)
반응형
'Computer & Data > Artificial Intelligence' 카테고리의 다른 글
인공지능) K-means Alg (0) | 2017.12.10 |
---|---|
인공지능) Convolution Networks (0) | 2017.12.10 |
인공지능) Neurons and the Brain (0) | 2017.12.09 |
인공지능) Logistic Regression (0) | 2017.12.09 |
인공지능) Decision Tree (1) | 2017.12.09 |