일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- pytorch
- DP
- c++
- 백트래킹
- lazy propagation
- 가끔은 말로
- 미래는_현재와_과거로
- 알고리즘
- 조합론
- 문자열
- 우선 순위 큐
- dropout
- NEXT
- 회고록
- BFS
- 크루스칼
- 분할 정복
- 가끔은_말로
- dfs
- 다익스트라
- back propagation
- Overfitting
- 2023
- tensorflow
- 자바스크립트
- 이분 탐색
- 플로이드 와샬
- 너비 우선 탐색
- 세그먼트 트리
- object detection
Archives
- Today
- Total
목록penalty term (1)
Doby's Lab

Regularization Overfitting 문제를 해결하는 데에 있어서 여러 기법들이 있습니다. 오늘은 L1, L2 Regularization에 대해 알아봅시다. 이 두 기법은 모델이 복잡할 때 일어나는 Overfitting을 해결하기 위한 기법입니다. 이 기법을 통해 가중치들이 작아지면서 모델이 아래 그림과 같이 일반성을 가질 수 있도록 합니다. MSE (Mean Squared Error) 들어가기 전에 일반적으로 Cost Function을 많이 쓰이는 MSE에 대해 알아봅시다. MSE란 평균 제곱 오차라는 뜻으로 예측 값과 실제 값의 차이를 제곱하여 이를 모두 평균화한 것을 의미합니다. $$ MSE = \frac{1}{N}\sum_{i=1}^{N}(\hat{y_i}-y_i)^{2} $$ MSE(..
AI/Concepts
2022. 12. 31. 11:08