Open godfatherzzx opened 5 years ago
1.通过np.arange(TOPIC_NUM)构造每个topic的索引输入,再重复BATCH次,通过embedding构建主题语义空间。 2.将主题语义空间映射到统一语义空间,至此,wt_emb的形状是[BATCH,TOPIC_NUM,DIM]。 3.将seq_input映射到词嵌入空间,再映射到统一语义空间,x的形状是[BATCH,SEQ_LEN,DIM] 4.通过dot,计算match得分,match的形状是[BATCH,SEQ_LEN,TOPIC_NUM] 5.将ntm生成的represent_mu与match得分add,topic_sum的形状是[BATCH,SEQ_LEN,TOPIC_NUM] 6.加入残差和全连接层,完成一个hop的计算。
跟论文中描述的:通过W生成S和Target矩阵,再计算P和R,有很大出入。
你具体是指“通过W生成S和Target矩阵”出入大,还是“计算P和R”出入大?
1.通过np.arange(TOPIC_NUM)构造每个topic的索引输入,再重复BATCH次,通过embedding构建主题语义空间。 2.将主题语义空间映射到统一语义空间,至此,wt_emb的形状是[BATCH,TOPIC_NUM,DIM]。 3.将seq_input映射到词嵌入空间,再映射到统一语义空间,x的形状是[BATCH,SEQ_LEN,DIM] 4.通过dot,计算match得分,match的形状是[BATCH,SEQ_LEN,TOPIC_NUM] 5.将ntm生成的represent_mu与match得分add,topic_sum的形状是[BATCH,SEQ_LEN,TOPIC_NUM] 6.加入残差和全连接层,完成一个hop的计算。
跟论文中描述的:通过W生成S和Target矩阵,再计算P和R,有很大出入。