| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | |
| 7 | 8 | 9 | 10 | 11 | 12 | 13 |
| 14 | 15 | 16 | 17 | 18 | 19 | 20 |
| 21 | 22 | 23 | 24 | 25 | 26 | 27 |
| 28 | 29 | 30 | 31 |
Tags
- object detection
- 우선 순위 큐
- 분할 정복
- dropout
- pytorch
- 자바스크립트
- 플로이드 와샬
- back propagation
- 백트래킹
- 이분 탐색
- 미래는_현재와_과거로
- DP
- 가끔은_말로
- 가끔은 말로
- dfs
- c++
- 세그먼트 트리
- 다익스트라
- 문자열
- 알고리즘
- BFS
- tensorflow
- 너비 우선 탐색
- Overfitting
- 조합론
- 2023
- NEXT
- 크루스칼
- lazy propagation
- 회고록
Archives
- Today
- Total
목록linearity (1)
Doby's Lab
✅ Intro지금까지 hidden layer의 구조가 들어간 MLP의 모델을 만들 때, 너무 당연하게 hidden layer에도 Activation을 추가해 주었었습니다. Activation에 대해서는 output layer에 추가하는 것 밖에 배우지 않았는데도 말입니다. 또한, Batch Normalization에서 Activation에서의 Non-linearity 상실이 좋지 않은 문제로 다루는데 왜 그런지도 알고 싶었습니다. 그래서 이번엔 hidden layer에서의 Activation의 역할에 대해 알아보려 합니다.✅ Non-linear Model모델은 linear의 관점에서 linear model과 non-linear model로 나뉩니다. 즉, 선형적으로 분류하는가 비선형적으로 분류하는가의 차..
AI/Concepts
2023. 1. 21. 10:04
