-
ML lec 10-1: Sigmoid 보다 ReLU가 더 좋아인공지능 및 기계학습 개론/ML_LEC 2020. 2. 13. 19:59
Preview
- (WX+b), Sigmoid(Activation Function)
- multi-layer -> solved NN for XOR
- Input, hidden, output Layer
9 hidden layers
- use of Tensor Board
Backpropagation problem
- Sigmoid 로인해 곱을 할수록 값이 점점 작아진다
- Vanishing Gradient
- 경사도가 사라져 학습 보정이 어렵다
- Sigmoid를 사용한것이 잘못(입력값을 1보다 작은 값으로 만드는것)
- ReLU Action Function
ReLU : Rectified Linear Unit
- L1=tf.nn.relu(tf.matmul(X, W1) + b1)
Other Activation Function
- Leaky ReLU
- Maxout
- ELU
- tanh
multi-layer -> solved NN for XOR Deep Network use of Tensor Board Low Accuracy Sigmoid 로인해 곱을 할수록 값이 점점 작아진다 경사도가 사라져 학습 보정이 어렵다 Sigmoid를 사용한것이 잘못(입력값을 1보다 작은 값으로 만드는것) L1=tf.nn.relu(tf.matmul(X, W1) + b1) Works very well '인공지능 및 기계학습 개론 > ML_LEC' 카테고리의 다른 글
ML lec 10-3: Dropout 과 모델 앙상블 (0) 2020.02.15 ML lec 10-2: Weight 초기화 잘해보자 (0) 2020.02.15 ML lec 09-2: 딥넷트웍 학습 시키기 (backpropagation) (0) 2020.02.13 ML lec 09-x: 특별편: 10분안에 미분 정리하기 (0) 2020.02.13 ML lec 09-1: XOR 문제 딥러닝으로 풀기 (0) 2020.02.13