일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- pytorch
- 너비 우선 탐색
- lazy propagation
- 조합론
- 가끔은 말로
- dropout
- DP
- 우선 순위 큐
- 가끔은_말로
- 백트래킹
- c++
- 다익스트라
- dfs
- object detection
- back propagation
- 문자열
- 2023
- 이분 탐색
- 미래는_현재와_과거로
- 자바스크립트
- 세그먼트 트리
- 플로이드 와샬
- 분할 정복
- tensorflow
- BFS
- 알고리즘
- NEXT
- 회고록
- Overfitting
- 크루스칼
Archives
- Today
- Total
목록regularization (1)
Doby's Lab

Regularization Overfitting 문제를 해결하는 데에 있어서 여러 기법들이 있습니다. 오늘은 L1, L2 Regularization에 대해 알아봅시다. 이 두 기법은 모델이 복잡할 때 일어나는 Overfitting을 해결하기 위한 기법입니다. 이 기법을 통해 가중치들이 작아지면서 모델이 아래 그림과 같이 일반성을 가질 수 있도록 합니다. MSE (Mean Squared Error) 들어가기 전에 일반적으로 Cost Function을 많이 쓰이는 MSE에 대해 알아봅시다. MSE란 평균 제곱 오차라는 뜻으로 예측 값과 실제 값의 차이를 제곱하여 이를 모두 평균화한 것을 의미합니다. $$ MSE = \frac{1}{N}\sum_{i=1}^{N}(\hat{y_i}-y_i)^{2} $$ MSE(..
AI/Concepts
2022. 12. 31. 11:08