KimDahye / deeplearning_study

0 stars 0 forks source link

Lecture 15: Natural Language Processing & Word Embeddings + 16: Sequence models & Attention mechanism #14

Open kingheadcat opened 2 years ago

kingheadcat commented 2 years ago

두 강의 통합 발표자료 입니다. 강의의 커리큘럼을 따르지 않고 이해하기 쉬운 순서로 개편하였습니다.

NLP_WE_SEQ_Attention.pdf