Open sebastien911 opened 4 years ago
想問關於 lecture 8 page 7中,提到透過貝式定理可以換成下式, 但我認識的貝式定理是長這樣:https://zh.wikipedia.org/wiki/%E8%B4%9D%E5%8F%B6%E6%96%AF%E5%AE%9A%E7%90%86 怎麼分母的P(x)不見了? 是因為正在處理x,所以不必考慮ㄇ ?謝謝大大
想問關於 lecture 8 page 7中,提到透過貝式定理可以換成下式, 但我認識的貝式定理是長這樣:https://zh.wikipedia.org/wiki/%E8%B4%9D%E5%8F%B6%E6%96%AF%E5%AE%9A%E7%90%86 怎麼分母的P(x)不見了? 是因為正在處理x,所以不必考慮ㄇ ?謝謝大大
因為argmax的對象是y
,所以p(x)
可以不考慮
想問關於 lecture 8 page 7中,提到透過貝式定理可以換成下式, 但我認識的貝式定理是長這樣:https://zh.wikipedia.org/wiki/%E8%B4%9D%E5%8F%B6%E6%96%AF%E5%AE%9A%E7%90%86 怎麼分母的P(x)不見了? 是因為正在處理x,所以不必考慮ㄇ ?謝謝大大
因為argmax的對象是
y
,所以p(x)
可以不考慮太好了,真的就是正在處理x,對象是
y
,所以p(x)
可以不考慮,3Q~
為什麼是用decoder向量與encoder向量相乘來當作attention scores呢?decoder結果不就是根據encoder(hidden state)算出來的嗎?為什麼不需要考慮input vector呢?
分享 NMT 及 Attention 動畫:https://leemeng.tw/neural-machine-translation-with-transformer-and-tensorflow2.html
希望講作業的組別可以詳細的講述每一行code,感恩~