일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- DP
- 알고리즘
- 너비 우선 탐색
- BFS
- 가끔은_말로
- 이분 탐색
- object detection
- 플로이드 와샬
- 문자열
- dfs
- dropout
- 조합론
- 분할 정복
- Overfitting
- 미래는_현재와_과거로
- 백트래킹
- 자바스크립트
- 다익스트라
- tensorflow
- lazy propagation
- NEXT
- 회고록
- back propagation
- 2023
- 크루스칼
- pytorch
- 가끔은 말로
- c++
- 우선 순위 큐
- 세그먼트 트리
Archives
- Today
- Total
목록attention (1)
Doby's Lab

✅ Introduction ViT라는 아키텍처를 공부하다가 새로운 메커니즘을 접하게 되었습니다. 그 새로운 메커니즘은 이번 글의 주제인 Attention입니다. 아직 NLP 분야의 Task를 다루어본 경험이 없기 때문에 등장하게 된 정확한 배경은 잘 모르지만, '어떠한 작동 원리인가?', '왜 성능이 더 좋은가?', '수식이 의미는 무엇인가?'에 대해서 집중적으로 다루어 보고자 합니다. 기존 자연어처리 분야에서는 Recurrence mechanism, 비전 분야에서는 Convolutional mechanism으로 엄청난 연구 및 아키텍처들이 나온 만큼 이미 각 분야에서 각 mechanism이 탄탄한 베이스가 되어있었습니다. 하지만, '세상에 완벽한 시스템은 없다'라는 말과 같이 훌륭한 연구와 고질적인 문..
AI/Concepts
2023. 12. 26. 21:36