일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
- 크루스칼
- object detection
- dropout
- lazy propagation
- 세그먼트 트리
- 가끔은_말로
- 알고리즘
- 백트래킹
- 분할 정복
- 가끔은 말로
- 너비 우선 탐색
- 문자열
- back propagation
- BFS
- Overfitting
- 조합론
- 회고록
- dfs
- NEXT
- 미래는_현재와_과거로
- 다익스트라
- tensorflow
- 2023
- pytorch
- DP
- 플로이드 와샬
- 자바스크립트
- c++
- 우선 순위 큐
- 이분 탐색
- Today
- Total
Doby's Lab
PyTorch 기본 스터디 끝! 본문
PyTorch 한국 사용자 모임 페이지를 통한 PyTorch 기본 스터디를 끝냈습니다 :)
아래 깃허브 리포지토리에서 공부한 코드 및 추가적으로 궁금한 부분들을 실험하여 정리해두었습니다.
https://github.com/drawcodeboy/Study-PyTorch
GitHub - drawcodeboy/Study-PyTorch: Pytorch 기본 스터디 목적 리포지토리
Pytorch 기본 스터디 목적 리포지토리. Contribute to drawcodeboy/Study-PyTorch development by creating an account on GitHub.
github.com
https://draw-code-boy.tistory.com/580
optimizer.step()은 정말 가중치를 건들까? (Call-by-Assignment)
🤔 Question PyTorch에서는 모델을 학습시킬 때, (특히 Back Propagation이 일어날 때) 아래와 같은 과정을 거칩니다. 1) optimizer의 종류와 learning rate에 따른 optimizer를 선언하면서 model의 parameter 값을 넘깁
draw-code-boy.tistory.com
https://draw-code-boy.tistory.com/581
backward()는 역전파를 어떻게 할까? (Autograd의 Node)
🤔 Problem PyTorch의 Tensor는 requires_grad가 True로 되어있을 때, 변화도에 대한 연산의 추적을 가능하게 합니다. 즉, 각 Tensor에 대해서 .grad 속성과 .grad_fn 속성이 생깁니다. .grad는 현재 Tensor에 대해 목
draw-code-boy.tistory.com
TensorFlow의 Sequential을 통한 모델링만 해보다가 PyTorch로 Class를 통해 구현하는 방법은 너무 재밌었습니다. (물론, TensorFlow도 이러한 방식을 지원합니다!)
앞으로 공부해나가야 할 내용들이 많아서 해당 'PyTorch' 카테고리로 정리할 계획입니다.
p.s. PyTorch 꿀잼...😆😆
'Daily > temp.txt (애매한 글들 모음)' 카테고리의 다른 글
왜 U-Net의 Output에서는 ReLU가 아니라 Sigmoid를 쓸까? (2) | 2024.05.17 |
---|---|
Git main branch에 올릴 때 참고 링크 모음 (0) | 2023.12.25 |
의료 분야 AI 적용 사례 5가지 정리 (0) | 2023.07.18 |
체계적인 프로젝트를 위한 WandB (1) - 기록하기, 기초 (0) | 2023.07.12 |