본문 바로가기
Deep Learning

Sigmoid, Softmax, Tanh, ReLU, Batch Normalization, Gradient Descent, Adagrad, RmsProp, Adam, Learning Rate, Ensemble, L1 and L2 Regularization, Dropout, Augmentation

by Oh Seokjin 2022. 8. 17.

* 이 글은 Goorm NLP 과정에서 진행한 KAIST 주재걸 교수님의 강의를 정리한 노트입니다.

 


 

'Deep Learning' 카테고리의 다른 글

GAN  (0) 2022.08.24
RNN, LSTM, GRU  (0) 2022.08.19
CNN Case-Study(LeNet-5, AlexNet, VGG-Network, GoogLeNet, ResNet)  (0) 2022.08.19
CNN  (0) 2022.08.18
Basic Concepts of Deep Learning(Preview)  (0) 2022.08.17

댓글