Closed NormanBeta closed 4 years ago
那么 ReLU 函数可以实现为: 通过组合 tf.maximum(x, a)和 tf.minimum(x, b)可以实现同时对数据的上下边界限幅: 𝑥 ∈ [𝑎, 𝑏]: def relu(x): return tf.minimum(x,0.) # 下限幅为 0 即可
下限幅函数是maximun, 此处应改为return tf.maximun(x,0.)
收到!谢谢。
那么 ReLU 函数可以实现为: 通过组合 tf.maximum(x, a)和 tf.minimum(x, b)可以实现同时对数据的上下边界限幅: 𝑥 ∈ [𝑎, 𝑏]: def relu(x): return tf.minimum(x,0.) # 下限幅为 0 即可
下限幅函数是maximun, 此处应改为return tf.maximun(x,0.)