-
ML lec 10-1: Sigmoid 보다 ReLU가 더 좋아인공지능 및 기계학습 개론/ML_LEC 2020. 2. 13. 19:59
Preview
- (WX+b), Sigmoid(Activation Function)
- multi-layer -> solved NN for XOR
- Input, hidden, output Layer
9 hidden layers
- use of Tensor Board
Backpropagation problem
- Sigmoid 로인해 곱을 할수록 값이 점점 작아진다
- Vanishing Gradient
- 경사도가 사라져 학습 보정이 어렵다
- Sigmoid를 사용한것이 잘못(입력값을 1보다 작은 값으로 만드는것)
- ReLU Action Function
ReLU : Rectified Linear Unit
- L1=tf.nn.relu(tf.matmul(X, W1) + b1)
Other Activation Function
- Leaky ReLU
- Maxout
- ELU
- tanh
'인공지능 및 기계학습 개론 > ML_LEC' 카테고리의 다른 글
ML lec 10-3: Dropout 과 모델 앙상블 (0) 2020.02.15 ML lec 10-2: Weight 초기화 잘해보자 (0) 2020.02.15 ML lec 09-2: 딥넷트웍 학습 시키기 (backpropagation) (0) 2020.02.13 ML lec 09-x: 특별편: 10분안에 미분 정리하기 (0) 2020.02.13 ML lec 09-1: XOR 문제 딥러닝으로 풀기 (0) 2020.02.13