* 이 글은 Stanford University의 Andrew Ng 교수님이 Coursera에서 강의하신 Deep Learning Specialization을 정리한 노트입니다.
'Deep Learning' 카테고리의 다른 글
Activation Functions and Their Derivatives(Sigmoid, tanh, ReLU, LeakyReLU) 비선형 함수를 사용하는 이유, 활성화 함수의 미분 (0) | 2022.08.27 |
---|---|
[Coursera] DL Specialization - Backpropagation Exercise (0) | 2022.08.26 |
Self-Supervised Learning (0) | 2022.08.25 |
GAN (0) | 2022.08.24 |
RNN, LSTM, GRU (0) | 2022.08.19 |
댓글