| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 조합론
- 2023
- NEXT
- Overfitting
- dfs
- 다익스트라
- 가끔은 말로
- 알고리즘
- 플로이드 와샬
- tensorflow
- lazy propagation
- 가끔은_말로
- 미래는_현재와_과거로
- pytorch
- back propagation
- 이분 탐색
- 회고록
- 자바스크립트
- DP
- object detection
- 크루스칼
- c++
- 세그먼트 트리
- 우선 순위 큐
- 백트래킹
- BFS
- 분할 정복
- 너비 우선 탐색
- 문자열
- dropout
Archives
- Today
- Total
목록loss (1)
Doby's Lab
Regularization Overfitting 문제를 해결하는 데에 있어서 여러 기법들이 있습니다. 오늘은 L1, L2 Regularization에 대해 알아봅시다. 이 두 기법은 모델이 복잡할 때 일어나는 Overfitting을 해결하기 위한 기법입니다. 이 기법을 통해 가중치들이 작아지면서 모델이 아래 그림과 같이 일반성을 가질 수 있도록 합니다. MSE (Mean Squared Error) 들어가기 전에 일반적으로 Cost Function을 많이 쓰이는 MSE에 대해 알아봅시다. MSE란 평균 제곱 오차라는 뜻으로 예측 값과 실제 값의 차이를 제곱하여 이를 모두 평균화한 것을 의미합니다. $$ MSE = \frac{1}{N}\sum_{i=1}^{N}(\hat{y_i}-y_i)^{2} $$ MSE(..
AI/Concepts
2022. 12. 31. 11:08