sebastien911 / IFNLP

一起往NLP大師之路邁進!
3 stars 0 forks source link

[討論議題] 20200521 #8

Open sebastien911 opened 4 years ago

GitYCC commented 4 years ago

希望講作業的組別可以詳細的講述每一行code,感恩~

sunchigg commented 4 years ago

想問關於 lecture 8 page 7中,提到透過貝式定理可以換成下式, 但我認識的貝式定理是長這樣:https://zh.wikipedia.org/wiki/%E8%B4%9D%E5%8F%B6%E6%96%AF%E5%AE%9A%E7%90%86 怎麼分母的P(x)不見了? 是因為正在處理x,所以不必考慮ㄇ ?謝謝大大

GitYCC commented 4 years ago

想問關於 lecture 8 page 7中,提到透過貝式定理可以換成下式, 但我認識的貝式定理是長這樣:https://zh.wikipedia.org/wiki/%E8%B4%9D%E5%8F%B6%E6%96%AF%E5%AE%9A%E7%90%86 怎麼分母的P(x)不見了? 是因為正在處理x,所以不必考慮ㄇ ?謝謝大大

因為argmax的對象是y,所以p(x)可以不考慮

sunchigg commented 4 years ago

想問關於 lecture 8 page 7中,提到透過貝式定理可以換成下式, 但我認識的貝式定理是長這樣:https://zh.wikipedia.org/wiki/%E8%B4%9D%E5%8F%B6%E6%96%AF%E5%AE%9A%E7%90%86 怎麼分母的P(x)不見了? 是因為正在處理x,所以不必考慮ㄇ ?謝謝大大

因為argmax的對象是y,所以p(x)可以不考慮

太好了,真的就是正在處理x,對象是y,所以p(x)可以不考慮,3Q~

sebastien911 commented 4 years ago

為什麼是用decoder向量與encoder向量相乘來當作attention scores呢?decoder結果不就是根據encoder(hidden state)算出來的嗎?為什麼不需要考慮input vector呢?

peihsuan commented 4 years ago

分享 NMT 評分指標介紹:https://towardsdatascience.com/evaluating-text-output-in-nlp-bleu-at-your-own-risk-e8609665a213

victorwung commented 4 years ago

分享 NMT 及 Attention 動畫:https://leemeng.tw/neural-machine-translation-with-transformer-and-tensorflow2.html