| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | ||||
| 4 | 5 | 6 | 7 | 8 | 9 | 10 |
| 11 | 12 | 13 | 14 | 15 | 16 | 17 |
| 18 | 19 | 20 | 21 | 22 | 23 | 24 |
| 25 | 26 | 27 | 28 | 29 | 30 | 31 |
- pytorch
- 미래는_현재와_과거로
- 크루스칼
- 너비 우선 탐색
- 알고리즘
- 2023
- 가끔은 말로
- tensorflow
- 문자열
- 이분 탐색
- 자바스크립트
- NEXT
- dfs
- BFS
- back propagation
- 세그먼트 트리
- Overfitting
- DP
- object detection
- 분할 정복
- dropout
- 회고록
- c++
- 플로이드 와샬
- 조합론
- lazy propagation
- 백트래킹
- 가끔은_말로
- 다익스트라
- 우선 순위 큐
- Today
- Total
Doby's Lab
왜 Graph의 Laplacian matrix의 eigenvector는 Fourier basis라 불리는가? 본문
연구노트 긁어오기 2
어제 논문을 읽던 도중이었나? Graph Spectral Convolution을 이해하고자 보고 있었는데, Laplacian matrix의 eigenvector를 보고 왜 Fourier basis라 하는지 궁금했다. 그래서, 기초적인 신호 처리부터 오래 걸리겠지만, 한 번 보자고 마음 먹고 푸리에 변환을 공부했었다. 특히, 1D Signal에서 Basis function이 Complex exponential이라는 점이 위에서 말하는 Fourier basis라고 하는 부분에 대해서 꽤 중요했다. 또, Laplacian operator와 Eigenfunction이 뭔지 알게 되었다. 이 때가 오늘의 스파크가 터지는 지점이었는데, ‘Laplacian operator의 Eigen function이 Fourier transform의 Complex exponential(basis function)이다’는 것을 포착했다. ‘그럼 Graph의 Laplacian matrix의 Eigenvector도 Fourier basis라 볼 수 있다’고 연결되는 지점에서 미쳤다는 소리가 절로 나왔다.
하지만, 그런 생각도 들었다. Laplacian matrix가 Laplacian이라는 이름을 갖게 된 이유? 왜냐하면, Laplacian operator와 Laplacian matrix의 공통점을 찾지 못 했다 보니 끼워 맞추기가 되는 느낌이 들었다. 이로 인해 eigenvector를 바로 Fourier basis라 해석하는 것이 조금 낯설었던..? 이 부분은 조금 더 탐색을 해봐야겠다.
오늘의 노트는 <The Emerging Field of Signal Processing on Graphs Extending High-Dimensional Data Analysis to Networks and Other Irregular Domain>이라는 논문을 보다가 작성되었다.
빨리 더 이해하고 싶다. Graph signal processing, Graph neural networks를 잘 이해하는 것은 결국 signal processing의 근간이 되는 technique들을 이해하는 데에 있었다!
빨리 Filtering, Polynomial parameterization을 이해하고 싶다. 왜냐하면, 매번 막히다가 여기에 내가 원하는 질문과 답들이 있다는 걸 깨달았으니까!

'연구노트 긁어오기' 카테고리의 다른 글
| 당신이 Neural ODE가 어려운 이유는 수학 때문이 아닐 수도 있다. (0) | 2025.12.20 |
|---|---|
| Neural ODE에서 말하는 메모리 문제는 무엇인가요? (2) | 2025.12.08 |
