분류 전체보기67 [Coursera] DL Specialization C3 Summary * 이 글은 Stanford University의 Andrew Ng 교수님이 Coursera에서 강의하신 Deep Learning Specialization을 정리한 노트입니다. 2022. 8. 30. NLP intro, Word Embedding, BoW, TF-IDF, Naive Bayes Classifier * 이 글은 Goorm NLP 과정에서 진행한 KAIST 주재걸 교수님의 강의를 정리한 노트입니다. 2022. 8. 29. [백준 BOJ - 1918 / 파이썬] 후위 표기식 1918번: 후위 표기식 (acmicpc.net) 1918번: 후위 표기식 첫째 줄에 중위 표기식이 주어진다. 단 이 수식의 피연산자는 알파벳 대문자로 이루어지며 수식에서 한 번씩만 등장한다. 그리고 -A+B와 같이 -가 가장 앞에 오거나 AB와 같이 *가 생략되는 등의 www.acmicpc.net 🔍 문제 분석 중위표기식을 후위표기식으로 변환하는 문제 ❗ 해결 아이디어 우선순위가 낮은 연산자가 나올 때까지 stack에 저장한 후 pop 괄호는 따로 연산 ✔️ 최종 풀이 import sys operator = sys.stdin.readline().rstrip() stack = [] answer = "" for token in operator: if 'A' 2022. 8. 28. [백준 BOJ - 2493 / 파이썬] 탑 2493번: 탑 (acmicpc.net) 2493번: 탑 첫째 줄에 탑의 수를 나타내는 정수 N이 주어진다. N은 1 이상 500,000 이하이다. 둘째 줄에는 N개의 탑들의 높이가 직선상에 놓인 순서대로 하나의 빈칸을 사이에 두고 주어진다. 탑들의 높이는 1 www.acmicpc.net 🔍 문제 분석 각 탑에서 보내는 신호를 어느 탑에서 수신하는지 알아내는 프로그램 ❗ 해결 아이디어 자신보다 큰 타워 중 가장 가까운 타워가 신호를 받게 되므로, 그 외 타워는 고려하지 않음 ✔️ 최종 풀이 import sys n = int(sys.stdin.readline()) tower = list(map(int, sys.stdin.readline().split())) prev_tower = [] result = [].. 2022. 8. 28. Activation Functions and Their Derivatives(Sigmoid, tanh, ReLU, LeakyReLU) 비선형 함수를 사용하는 이유, 활성화 함수의 미분 Non-Linear Activation Function 먼저, 활성화 함수를 사용하는 이유는 네트워크에서 다음 뉴런의 사용 여부를 결정하기 위함입니다. 이는 해당 노드가 사용자의 목적에 맞는 정보를 제공하는지 판단하는 과정이라고 해석할 수 있습니다. 그렇다면 이 판단 과정에 꼭 비선형 함수를 사용해야 하는 이유는 무엇일까요? 비선형 활성화 함수를 사용하는 것은 층을 깊게 하는 의미가 있습니다. 이때 선형 활성화 함수를 사용한다면, 여러 층을 쌓은 것은 효용이 없습니다. 선형함수인 h(x) = ax를 활성화 함수로 3-Layer NN를 구성할 경우, y(x) = h(h(h(x))) = a*a*ax입니다. 이 때 a^3을 b로 치환할 경우 y(x) = bx로, 한 층을 쌓은 선형 함수의 형태와 같게 됩니다... 2022. 8. 27. [Coursera] DL Specialization - Backpropagation Exercise * 이 글은 Stanford University의 Andrew Ng 교수님의 Deep Learning Specialization 강의 중 C1W3L05, C1W3L10의 Backpropagation 수식을 유도해 본 노트입니다. 2022. 8. 26. Self-Supervised Learning * 이 글은 Goorm NLP 과정에서 진행한 KAIST 주재걸 교수님의 강의를 정리한 노트입니다. 2022. 8. 25. GAN * 이 글은 Goorm NLP 과정에서 진행한 KAIST 주재걸 교수님의 강의를 정리한 노트입니다. 2022. 8. 24. RNN, LSTM, GRU * 이 글은 Goorm NLP 과정에서 진행한 KAIST 주재걸 교수님의 강의를 정리한 노트입니다. ** LSTM 부분은 Christopher Olah의 포스팅을 추가로 참고하였습니다. 2022. 8. 19. 이전 1 2 3 4 5 6 ··· 8 다음