Closed ksboy closed 5 years ago
您好,我想使用 Transformer._positionEmbedding ,在设置 batchSize 遇到个问题: 在验证时,验证集的 batch 和 训练集的 batch 大小不同(训练集的batch 要大些,为了减少验证的时间,同时避免内存溢出) 当然可以把 PositionEmbedding 当做参数输入以解决这个问题,有没有更好地方法来解决呢?
batchSize = tf.shape(self.inputX)[0]
您好,我想使用 Transformer._positionEmbedding ,在设置 batchSize 遇到个问题: 在验证时,验证集的 batch 和 训练集的 batch 大小不同(训练集的batch 要大些,为了减少验证的时间,同时避免内存溢出) 当然可以把 PositionEmbedding 当做参数输入以解决这个问题,有没有更好地方法来解决呢?