Open myl11045 opened 10 months ago
如果想要改变输入的尺寸,通常都会用transform=transforms.resize(64)#64为修改的尺寸, 但是正如dvs128gesture类所阐述的,以frame来读取数据集,返回的全是numpy.array, 如果修改为transform=transforms.Compose([transforms.ToPILImage(),transforms.resize(64)]), 由于数据是4维的也不能正常使用,应该怎么修改?
numpy.array可以直接转换成torch的tensor,用torch.from_numpy
由于数据是4维的也不能正常使用
可以考虑手动实现一个变换,用一个for循环对每一帧进行操作,每一帧都是3维的
如果想要改变输入的尺寸,通常都会用transform=transforms.resize(64)#64为修改的尺寸, 但是正如dvs128gesture类所阐述的,以frame来读取数据集,返回的全是numpy.array, 如果修改为transform=transforms.Compose([transforms.ToPILImage(),transforms.resize(64)]), 由于数据是4维的也不能正常使用,应该怎么修改?