Open MioChiu opened 2 years ago
Hi @MioChiu ,
IMAGE_WIDTH = 480
IMAGE_HEIGHT = 270
...
poses_2d = np.concatenate(pose_batch, axis=0)
poses_2d[:, np.arange(0, poses_2d.shape[-1], 2)] /= (IMAGE_WIDTH*1) # 1 是一个调整参数,尽可能使人物在图片中的比例接近原始数据集
poses_2d[:, np.arange(1, poses_2d.shape[-1], 2)] /= (IMAGE_HEIGHT*1) # 1
hi,最近尝试了一下motioNet,有几个问题想请教一下: 1.关于测试时的IMAGE_WIDTH,这里应该就用图片宽度吗,还是需要最长边? 2.MotioNet论文中最吸引我的是能够相对准确的回归global root position,事实上目前绝大多数3D pose的方法在这方面都比较糟糕。然而我看到测试时有
4.我自己测试了如下视频,发现效果并不好,动作错误较多,而且global translation基本固定在原地(实际上视频中的人从左走到右有比较明显的位移),我使用evaluate.py的默认设置(IMAGE_WIDTH改为视频的宽度),请问是还需要修改什么才能达到较好的效果呢?还是说我这个视频本身不太符合训练集的分布?
![image](https://user-images.githubusercontent.com/42037320/164013239-6c761b87-9952-4b80-9442-82d1231d1867.png)
translation[:, :2] = translation[:, :2]*3;translation[:, 2] = translation[:, 2]*1.5
,这里的scale系数是怎么得到的呢?经验值?在我测试自己的视频时对这个有什么建议吗? 3.演示视频里下面这个视频的global translation看起来效果很好,请问是有做什么其他的操作嘛?靠这个库的代码和模型能做到吗?