jiangxinyang227 / textClassifier

tensorflow implementation
1.14k stars 556 forks source link

关于 Transformer._positionEmbedding 中的 batchSize #10

Closed ksboy closed 5 years ago

ksboy commented 5 years ago

您好,我想使用 Transformer._positionEmbedding ,在设置 batchSize 遇到个问题: 在验证时,验证集的 batch 和 训练集的 batch 大小不同(训练集的batch 要大些,为了减少验证的时间,同时避免内存溢出) 当然可以把 PositionEmbedding 当做参数输入以解决这个问题,有没有更好地方法来解决呢?

image

ksboy commented 5 years ago

batchSize = tf.shape(self.inputX)[0]