일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 우선 순위 큐
- 미래는_현재와_과거로
- Overfitting
- 문자열
- 분할 정복
- lazy propagation
- dropout
- NEXT
- 가끔은_말로
- c++
- 다익스트라
- 플로이드 와샬
- 2023
- object detection
- 백트래킹
- BFS
- 자바스크립트
- 조합론
- 회고록
- tensorflow
- 너비 우선 탐색
- 알고리즘
- DP
- dfs
- back propagation
- 세그먼트 트리
- 이분 탐색
- 가끔은 말로
- 크루스칼
- pytorch
Archives
- Today
- Total
목록몫의 미분법 (1)
Doby's Lab

✅ Contents 1. Intro 2. Gradient Descent 3. Back Propagation (1): MLP 구조 및 함수 정의 4. Back Propagation (2): \(w_{1,1}^{(2)}\) 업데이트 5. Back Propagation (3): \(w_{1,1}^{(1)}\) 업데이트 6. Outro 7. Reference ✅ 1. Intro Batch Normalization에 대해 공부하다가 Gradient Vanishing / Exploding라는 개념이 다시 나왔었습니다. Vanishing / Exploding 문제는 매우 낮거나, 높은 Learning Rate로 인해 발생하는 문제라고만 인식했었는데 Back-Propagation이 원인이 될 수 있다는 얘기가 나왔었습..
AI/Concepts
2023. 1. 16. 23:40