-
ML lec 06-2 Softmax classifier 의 cost함수인공지능 및 기계학습 개론/ML_LEC 2020. 2. 11. 10:37
Where is sigmoid?
- 0~1로 데이터를 압축 시켜줌
Softmax
- N개의 데이터를 입력하게 되면 출력값이 0~1 사이의 값이 나옴
- 출력 값들의 총 합은 항상 1이 되도록 함
- One-hot encoding 으로 max값인 데이터를 선택 가능
cost function
- cross-entropy
- 예측값 S(y), 실제 값 L의 차이
Cross-entropy cost function
- 예측이 맞을 경우 작은 값이되고
- 예측이 틀린경우 큰 값을 주어 패널티
Logistic cost VS cross entropy
여러개의 training set -> cost function -> Gradient descent
'인공지능 및 기계학습 개론 > ML_LEC' 카테고리의 다른 글
ML lec 07-1: 학습 rate, Overfitting, 그리고 일반화 (Regularization) (0) 2020.02.11 ML lec 06-1 Softmax Regression: 기본 개념 소개 (0) 2020.02.11 ML lec 03 - Linear Regression의 cost 최소화 알고리즘의 원리 설명 (0) 2020.02.10 ML lec 02 - Linear Regression (0) 2020.02.10 ML lec 01 - 기본적인 ML용어와 개념 정리 (0) 2020.02.10