일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 다익스트라
- BFS
- Overfitting
- 너비 우선 탐색
- dropout
- 백트래킹
- DP
- NEXT
- 세그먼트 트리
- back propagation
- 분할 정복
- 이분 탐색
- dfs
- 자바스크립트
- lazy propagation
- object detection
- 우선 순위 큐
- 크루스칼
- 2023
- 미래는_현재와_과거로
- 문자열
- tensorflow
- 가끔은 말로
- 가끔은_말로
- pytorch
- 알고리즘
- 조합론
- c++
- 플로이드 와샬
- 회고록
Archives
- Today
- Total
목록Pre-training (1)
Doby's Lab
Transfer Learning(pre-training, fine-tuning)의 개념에 대하여 (Prologue)
✅ Intro R-CNN에 대해 공부하다가 접하게 되어 기본적인 개념에 대해 알고자 작성하게 되었습니다. ✅ Pre-training (사전 학습) 어떤 목적을 갖는 모델을 만들어야 할 때, 이미 잘 만들어진 모델을 가지고 조금 변형을 줘서 사용할 수 있겠다 싶은 판단이 들 때가 있습니다. 그때, 이미 잘 만들어진 모델은 Pre-trained Model이라고 합니다. 예를 들어, 개와 고양이를 분류하는 ResNet, ImageNet 등 좋은 모델을 가져와서 쓴다고 할 때, Pre-trained Model은 이렇게 선정했다고 말할 수 있습니다. 또한, 이런 경우가 아니더라도 Labeled data가 많이 없는 케이스도 Pre-training을 고려할 수 있습니다. 왜냐하면, Unsupervised Learn..
AI/Concepts
2023. 2. 4. 11:25