Study/Computer Vision2 [CV] ViT, ViViT (Vision Transformer, Video Vision Transformer) https://yoomimi.tistory.com/entry/Attention-Seq2Seq-Transformer [Deep Learning] Attention, Seq2Seq, TransformerVision Transformer를 이해하기 위해 필수적인 개념들을 한데 정리해보려고 한다.우선 RNN, LSTM, GRU에 관한 포스팅은 아래! 이 개념을 알아야 이해하기 편하다. https://yoomimi.tistory.com/entry/RNN-LSTM-GRU [Deepyoomimi.tistory.com 우선 Attention과 Transformer에 관한 이해가 필요하다. 1. ViT (Vision Transformer)Transformer가 자연어 처리 분야에서 SOTA로 쓰이니 CV 쪽에서도 이를.. 2024. 7. 5. [CV] Statistical object recognition, PCA/LDA, SVD 📍 Statistical object recognition, PCA/LDA, SVD2024년 연세대학교 컴퓨터과학과 4학년 과목인 Computer Vision을 수강하며... #1. Object recognition에서 categorization에 대한 statistical한 관점베이즈 정리 (Bayes Rule) 이용: p(zebra | image) = p(image | zebra) p(zebra) 사후 확률 (Posterior): p(zebra ∣ image)우도 (Likelihood): p(image ∣ zebra)사전 확률 (Prior): p(zebra) MAP decision (Maximum a Posteriori Decision): 결국 우리의 목적은 posterior가 최대가 되도록 하는.. 2024. 6. 9. 이전 1 다음