JINSTORY
Certificate - DS/Deep learning specialization
(14)
Activation Function - ReLU
Glossary
Model Debugging - Hyperparameter 하이퍼파라미터 값 조정
Model debugging and Loss curve
Hyperparameters Tuning 하이퍼파라미터 튜닝
Activation Function 활성화 함수 - Sigmoid, tanh, ReLU, LeakyReLU
[Hyperparameters] Batch/Batch size/Epoch/Iteration 배치, 에포크
Overfitting, Strategies to prevent overfitting 과적합과 과적합 문제를 해결하기 위한 방법
[Optimization Algorithms] Gradient Descent (1) Batch, Stochastic, Mini-batch Gradient descent 배치, 확률적, 미니배치 경사하강법
[코세라 딥러닝 정리] C4W4 - Special Applications: Face recognition & Neural Style Transfer
이전
1
2
다음
티스토리툴바
JINSTORY
구독하기