Doby's Lab

PyTorch 기본 스터디 끝! 본문

TEMP (애매한 글들 모음)

PyTorch 기본 스터디 끝!

도비(Doby) 2023. 11. 21. 23:33

PyTorch 한국 사용자 모임 페이지를 통한 PyTorch 기본 스터디를 끝냈습니다 :)

아래 깃허브 리포지토리에서 공부한 코드 및 추가적으로 궁금한 부분들을 실험하여 정리해두었습니다.

 

https://github.com/drawcodeboy/Study-PyTorch

 

GitHub - drawcodeboy/Study-PyTorch: Pytorch 기본 스터디 목적 리포지토리

Pytorch 기본 스터디 목적 리포지토리. Contribute to drawcodeboy/Study-PyTorch development by creating an account on GitHub.

github.com

https://draw-code-boy.tistory.com/580

 

optimizer.step()은 정말 가중치를 건들까? (Call-by-Assignment)

🤔 Question PyTorch에서는 모델을 학습시킬 때, (특히 Back Propagation이 일어날 때) 아래와 같은 과정을 거칩니다. 1) optimizer의 종류와 learning rate에 따른 optimizer를 선언하면서 model의 parameter 값을 넘깁

draw-code-boy.tistory.com

https://draw-code-boy.tistory.com/581

 

backward()는 역전파를 어떻게 할까? (Autograd의 Node)

🤔 Problem PyTorch의 Tensor는 requires_grad가 True로 되어있을 때, 변화도에 대한 연산의 추적을 가능하게 합니다. 즉, 각 Tensor에 대해서 .grad 속성과 .grad_fn 속성이 생깁니다. .grad는 현재 Tensor에 대해 목

draw-code-boy.tistory.com


TensorFlow의 Sequential을 통한 모델링만 해보다가 PyTorch로 Class를 통해 구현하는 방법은 너무 재밌었습니다. (물론, TensorFlow도 이러한 방식을 지원합니다!)

 

앞으로 공부해나가야 할 내용들이 많아서 해당 'PyTorch' 카테고리로 정리할 계획입니다.

 

p.s. PyTorch 꿀잼...😆😆

728x90