Closed liminghe-li closed 3 years ago
看一下 https://github.com/williamfzc/stagesepx/issues/119 这两个版本误发布了一些错误代码,更新后重新训练即可 两个版本已经从 Pypi 上移除
请问下必须用0.13.1版本吗?我装了最新的0.14.0,但是这个问题仍然没有解决
请问下必须用0.13.1版本吗?我装了最新的0.14.0,但是这个问题仍然没有解决
这个错误的原因是用了旧版本的训练参数得到了模型,而用了新版本的方式去解析; 所以你换了新版本,也没法解决这个问题;
两个方案:
还是说我需要重新训练模型?那数据集呢?不需要重新分拣吧?
旧数据集还在吗?
旧的数据集还在,数据集还可以继续使用旧的对吗?
旧的数据集还在,数据集还可以继续使用旧的对吗?
是的,重新训练出模型即可; 可以理解为模型的格式有问题;
好的,非常感谢~
我用旧的数据集训练出来的新的模型,在解析的时候都出问题了,全部都只解析出来stage=-3和stage=0,是需要重新获取一下数据集么?
我用旧的数据集训练出来的新的模型,在解析的时候都出问题了,全部都只解析出来stage=-3和stage=0,是需要重新获取一下数据集么?
重新获取数据集是什么意思
我用旧的数据集训练出来的新的模型,在解析的时候都出问题了,全部都只解析出来stage=-3和stage=0,是需要重新获取一下数据集么?
重新获取数据集是什么意思
咱们不是分为获取数据集,训练模型,解析模型么?我是用0.12.1版本获取的数据集,然后人工分拣;之后升级到0.14版本训练的模型,所以现在我怀疑是不是数据集就存在问题呢?我需要获取数据集么?
我用旧的数据集训练出来的新的模型,在解析的时候都出问题了,全部都只解析出来stage=-3和stage=0,是需要重新获取一下数据集么?
重新获取数据集是什么意思
咱们不是分为获取数据集,训练模型,解析模型么?我是用0.12.1版本获取的数据集,然后人工分拣;之后升级到0.14版本训练的模型,所以现在我怀疑是不是数据集就存在问题呢?我需要获取数据集么?
用你分拣过的训练集重新训练出新模型就可以
我用旧的数据集训练出来的新的模型,在解析的时候都出问题了,全部都只解析出来stage=-3和stage=0,是需要重新获取一下数据集么?
重新获取数据集是什么意思
咱们不是分为获取数据集,训练模型,解析模型么?我是用0.12.1版本获取的数据集,然后人工分拣;之后升级到0.14版本训练的模型,所以现在我怀疑是不是数据集就存在问题呢?我需要获取数据集么?
用你分拣过的训练集重新训练出新模型就可以
我现在是这样做的,但是这个模型解析的时候全部都只解析出来stage=-3和stage=0
- 完全一样的视频?
- 完全一样的训练集?
- 本来有没有问题?
不完全一样的视频,但是视频我看了下是对的,还是录了相同的内容;训练集是一样的
再请教一下,我可以把不同设备录的相同内容的数据做成一个数据集去训练一个模型出来吗?
- 完全一样的视频?
- 完全一样的训练集?
- 本来有没有问题?
不完全一样的视频,但是视频我看了下是对的,还是录了相同的内容;训练集是一样的
旧版本+旧模型运行正常吗?这部分代码并没有改动。
再请教一下,我可以把不同设备录的相同内容的数据做成一个数据集去训练一个模型出来吗?
可以。当然差别较大的就不大合适了。
在使用过程中遇到问题"Shapes %s and %s are incompatible" % (self, other) 具体报错信息如下: File "/docker/opt/meituan/appdatas/qatools/common-tools/dynamic/get_cost_time.py", line 152, in dataProcessing cl.load_model(model_file) File "/opt/meituan/apps/anaconda/lib/python3.7/site-packages/stagesepx/classifier/keras.py", line 94, in load_model self._model.load_weights(model_path) File "/opt/meituan/apps/anaconda/lib/python3.7/site-packages/tensorflow/python/keras/engine/training.py", line 250, in load_weights return super(Model, self).load_weights(filepath, by_name, skip_mismatch) File "/opt/meituan/apps/anaconda/lib/python3.7/site-packages/tensorflow/python/keras/engine/network.py", line 1266, in load_weights hdf5_format.load_weights_from_hdf5_group(f, self.layers) File "/opt/meituan/apps/anaconda/lib/python3.7/site-packages/tensorflow/python/keras/saving/hdf5_format.py", line 707, in load_weights_from_hdf5_group K.batch_set_value(weight_value_tuples) File "/opt/meituan/apps/anaconda/lib/python3.7/site-packages/tensorflow/python/keras/backend.py", line 3384, in batch_set_value x.assign(np.asarray(value, dtype=dtype(x))) File "/opt/meituan/apps/anaconda/lib/python3.7/site-packages/tensorflow/python/ops/resource_variable_ops.py", line 846, in assign self._shape.assert_is_compatible_with(value_tensor.shape) File "/opt/meituan/apps/anaconda/lib/python3.7/site-packages/tensorflow/python/framework/tensor_shape.py", line 1117, in assert_is_compatible_with raise ValueError("Shapes %s and %s are incompatible" % (self, other)) ValueError: Shapes (64, 6) and (64, 12) are incompatible 期待收到回复~