일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 플로이드 와샬
- dfs
- BFS
- back propagation
- DP
- 다익스트라
- 조합론
- 가끔은 말로
- 2023
- object detection
- 너비 우선 탐색
- 가끔은_말로
- dropout
- 우선 순위 큐
- lazy propagation
- 분할 정복
- 회고록
- 이분 탐색
- 크루스칼
- 문자열
- Overfitting
- pytorch
- tensorflow
- c++
- 알고리즘
- 자바스크립트
- 백트래킹
- 미래는_현재와_과거로
- NEXT
- 세그먼트 트리
Archives
- Today
- Total
목록MLOps (1)
Doby's Lab

✅ Intro 모델을 학습시키면서 최적의 결과를 찾기 위해 하이퍼파라미터 튜닝을 진행합니다. 이러한 과정에서 값들에 대한 로그를 따로 문서화시켜 정리하거나 노트를 해두면 편하지만, 이는 간단하면서도 까다로웠던 경험이 있습니다. 이런 부분을 해소할 수 있는 툴, WandB를 알게 되었습니다. WandB(Weights & Biases)는 프로젝트의 실험을 관리하고, 하이퍼 파라미터의 튜닝을 체계적으로 기록할 수 있도록 하고, 뿐만 아니라 최적의 하이퍼파라미터를 위해 여러 값들을 통해 실험해 볼 수 있는 기능(Sweep)등 여러 편리함들을 제공합니다. 이번 포스팅에서는 기초적인 기록에 대해서만 알아보겠습니다. ✅ How (💡 아래 코드는 WandB에서 제공하는 QuickStart의 코드이며, 이번 포스팅에서 ..
Daily/temp.txt (애매한 글들 모음)
2023. 7. 12. 07:55