Closed weidom closed 4 years ago
error log不太全,不好判断问题,github可以上传文件了,带上h5我跑一下吧。(导出的时候需要带结构,直接model.save)
btw, relu的max_value是因为keras的relu op功能非常多,单一一个relu op可以支持leaky,clip,relu6等,so,只是空着没用了。你这里就是一个普通的relu op。
Close due to long time no response, you can reopen it if you get the file.
{'layer': {'class_name': 'ReLU', 'config': {'name': 're_lu', 'trainable': True, 'dtype': 'float32', 'max_value': None, 'negative_slope': 0.0, 'threshold': 0.0}, 'name': 're_lu', 'inbound_nodes': [[['batch_normalization', 0, 0, {}]]]}, 'weight': None}
'max_value': None
为啥 relu 会有这个参数 ,是我的问题吗?
请问大佬,我该怎么规避这个问题呢