Seq2seq1 [Deep Learning] Attention, Seq2Seq, Transformer Vision Transformer를 이해하기 위해 필수적인 개념들을 한데 정리해보려고 한다.우선 RNN, LSTM, GRU에 관한 포스팅은 아래! 이 개념을 알아야 이해하기 편하다. https://yoomimi.tistory.com/entry/RNN-LSTM-GRU [Deep Learning] RNN, LSTM, GRU 총정리★ (+판서)RNN(Recurrent Neural Network)우선 더 익숙한 CNN에서 출발해보자. CNN은 input(들)을 이용해 output을 예측하는데, 그 과정에서 data가 재사용되지 않는다. 당연하다. CNN은 input 하나를 한꺼번에 넣어주기 때문yoomimi.tistory.com 들어가기 전, 기계 번역의 발전 과정을 알고 가면 좋다.RNN > LSTM > .. 2024. 2. 19. 이전 1 다음