일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 세그먼트 트리
- 크루스칼
- NEXT
- 백트래킹
- pytorch
- 이분 탐색
- 미래는_현재와_과거로
- 너비 우선 탐색
- DP
- back propagation
- 분할 정복
- dfs
- dropout
- lazy propagation
- 알고리즘
- tensorflow
- 다익스트라
- 플로이드 와샬
- c++
- 가끔은 말로
- Overfitting
- 문자열
- 2023
- object detection
- 조합론
- 자바스크립트
- 가끔은_말로
- 우선 순위 큐
- BFS
- 회고록
Archives
- Today
- Total
목록2025/01/14 (1)
Doby's Lab
self.register_buffer(), 학습하지 않을 파라미터라면? (tensor와 명백하게 다른 점 2)
🤔 Problem오랜만에 PyTorch 관련 글입니다. 최근에는 Generative Model 쪽을 공부하면서 DDPM을 구현하다가 PyTorch의 새로운 기능을 발견했는데요. 바로 오늘 글의 주제가 되는 self.register_buffer()입니다. 본 포스트는 예전에 작성한 포스트들 중에 'nn.Parameter(), 이걸 써야 하는 이유가 뭘까? (tensor와 명백하게 다른 점)'라는 포스트의 후속 편이 되기도 합니다. 이전 포스트의 내용을 간략하게 리뷰해 보면 '모델 내에서 단순히 torch.tensor()를 통해 선언한 텐서는 학습의 대상이 되지 못하고, 이를 명확하게 모델 내 학습을 하는 파라미터로 정의하기 위해서는 nn.Parameter()로 감싸서 추가적으로 선언해야 한다.'라는 내..
Code about AI/PyTorch
2025. 1. 14. 22:56