일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- NEXT
- 2023
- back propagation
- 분할 정복
- lazy propagation
- 문자열
- BFS
- 회고록
- 이분 탐색
- object detection
- 가끔은 말로
- 조합론
- 크루스칼
- 백트래킹
- 가끔은_말로
- tensorflow
- 우선 순위 큐
- 알고리즘
- dropout
- c++
- 세그먼트 트리
- DP
- dfs
- 다익스트라
- 너비 우선 탐색
- 자바스크립트
- pytorch
- 미래는_현재와_과거로
- 플로이드 와샬
- Overfitting
- Today
- Total
목록AI (19)
Doby's Lab
Normalization Normalization이란 정규화로 특정 feature의 scale을 0에서 1로 새롭게 scaling 하는 기법을 의미합니다. (개념에 대해 정리한 글) https://draw-code-boy.tistory.com/438 Standardization(표준화)와 Normalization(정규화)의 차이 공부를 하다 보면 Data Preprocessing을 할 일이 많은데 책에서는 정규화를 한다 하지만 StandardScaler를 통해 Data Scaling을 하는 경우가 종종 있습니다. 언어가 혼용되는 것인지 잘못 알고 있는 건지 정리 draw-code-boy.tistory.com 이 작업이 데이터셋에서 feature 간 scale이 다르기 때문에 이를 같게 하기 위해 쓰이는 ..
Stochastic Gradient Descent를 공부할 때, Loss Function과의 관계가 궁금했습니다. 알고 나니 크게 어려운 건 없었지만 Gradient Descent에 대해 정리하며 관계까지 정리해보겠습니다. 해당 포스트는 아래 링크 영상에 관한 정리 내용입니다. (https://www.youtube.com/watch?v=h6aath0ulX4 ) Loss Function Loss Function이란 Model이 내놓는 예측 값과 실제 값의 차이를 얻어내는 메커니즘입니다. 예측 값과 실제 값의 차이를 Error라고 합니다. 엔지니어의 입장에서는 이러한 Error를 최소화시키는 방향으로 Model을 구현해야 합니다. 간단히 설명하기 위해 Linear Regression Model을 하나 가져와..
공부를 하다 보면 Data Preprocessing을 할 일이 많은데 책에서는 정규화를 한다 하지만 StandardScaler를 통해 Data Scaling을 하는 경우가 종종 있습니다. 언어가 혼용되는 것인지 잘못 알고 있는 건지 정리를 하고 넘어가려 합니다. Data Preprocessing 정규화와 표준화 둘 다 데이터 전처리를 하는 데에 사용됩니다. 데이터 전처리를 하는 이유는? 고양이와 강아지를 분류하기 위해 꼬리의 길이, 미간의 길이, 무게 등 각 클래스에 대한 feature를 가지는 데이터들이 주어지고, Logistic Regression Model을 만든다고 합시다. Logistic Regression은 선형 방정식이라는 Model Parameter를 만들어내는데 Sample의 각 feat..