일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- DP
- 가끔은_말로
- 문자열
- object detection
- BFS
- c++
- lazy propagation
- tensorflow
- 2023
- 다익스트라
- NEXT
- 우선 순위 큐
- 회고록
- 자바스크립트
- 미래는_현재와_과거로
- dropout
- 너비 우선 탐색
- pytorch
- back propagation
- 백트래킹
- 알고리즘
- Overfitting
- 가끔은 말로
- 이분 탐색
- dfs
- 크루스칼
- 분할 정복
- 플로이드 와샬
- 조합론
- 세그먼트 트리
Archives
- Today
- Total
목록fixed parameter (1)
Doby's Lab
self.register_buffer(), 학습하지 않을 파라미터라면? (tensor와 명백하게 다른 점 2)
🤔 Problem오랜만에 PyTorch 관련 글입니다. 최근에는 Generative Model 쪽을 공부하면서 DDPM을 구현하다가 PyTorch의 새로운 기능을 발견했는데요. 바로 오늘 글의 주제가 되는 self.register_buffer()입니다. 본 포스트는 예전에 작성한 포스트들 중에 'nn.Parameter(), 이걸 써야 하는 이유가 뭘까? (tensor와 명백하게 다른 점)'라는 포스트의 후속 편이 되기도 합니다. 이전 포스트의 내용을 간략하게 리뷰해 보면 '모델 내에서 단순히 torch.tensor()를 통해 선언한 텐서는 학습의 대상이 되지 못하고, 이를 명확하게 모델 내 학습을 하는 파라미터로 정의하기 위해서는 nn.Parameter()로 감싸서 추가적으로 선언해야 한다.'라는 내..
Code about AI/PyTorch
2025. 1. 14. 22:56