일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 2023
- 알고리즘
- 너비 우선 탐색
- 플로이드 와샬
- c++
- 다익스트라
- pytorch
- lazy propagation
- 가끔은 말로
- 우선 순위 큐
- 조합론
- 백트래킹
- 가끔은_말로
- dropout
- 크루스칼
- DP
- BFS
- object detection
- 세그먼트 트리
- 문자열
- back propagation
- dfs
- 이분 탐색
- Overfitting
- 회고록
- NEXT
- tensorflow
- 미래는_현재와_과거로
- 자바스크립트
- 분할 정복
Archives
- Today
- Total
목록Thinking (1)
Doby's Lab
왜 U-Net의 Output에서는 ReLU가 아니라 Sigmoid를 쓸까?
🤔 Problem세션을 진행하던 중 논문 리뷰에 대해 피드백을 진행하다가 질문을 받았다. '모델 내에서는 ReLU를 쓰는데 왜 마지막에서는 갑자기 Sigmoid'를 쓰나요?', 솔직하게 당황했다.결론적으로, 간단히 말하면 이 질문에 대한 답은 확률로 간단하게 표현하기 위함이라 정리할 수 있다. 이에 대해서 'ReLU에 비해 상대적으로 Sigmoid의 Output이 기준 값 0.5에 의하여 0과 1로 판별하기 쉽다.(?)'라고 답한 거 같다. 사실 정확하게 기억이 안 난다. 암튼 틀린 답이었다. Sigmoid의 출력을 0 혹은 1로 가진다고 했었나? 그랬다면, 왜 그런 말을 했을까... 그리고, 나 스스로도 답이 시원찮아서 '모델 내에서 Sigmoid를 쓰지 않는 이유'라는 반대의 경우에서도 설명했다. ..
Thinking
2024. 5. 17. 00:49