Closed GH-W5 closed 3 years ago
请问您遇到过CUDA out of memory的问题么?请问您是怎么解决的啊?
有遇到过,最后把图像裁剪成256x256输入,再训练就没这个问题了
请问您遇到过CUDA out of memory的问题么?请问您是怎么解决的啊?
裁剪图片,你也是本科生毕设吗?
不是
不是
我的epoch保存从158直接就到latest了,请问你是怎么保存193epoch的
请问你用的命令是:python ./train.py --save_epoch_freq 1 --angle 15 --dataroot ~/LEVIR_CD/train_256/ --val_dataroot ~/LEVIR_CD/val_256/ --name LEVIR-CDFAp0 --lr 0.001 --model CDFA --SA_mode PAM --batch_size 8--load_size 256--crop_size 256 --preprocess rotate_and_crop 吗? 请问batch_size设的是多少?另外裁剪的时候重叠吗? 我裁成了256*256不重叠,网络resnet18,结果非常不好,f1才78左右。
@GuitarZhang batch_size设的是8,没有重叠,我之前也是0.78,把那个ds设置成1,就好的
论文结果复现了, 没什么问题
你好,裁剪256*256是在训练命令中那个crop_size吗?我的F1得分只有0.773,Precision只有0.649。
@
论文结果复现了, 没什么问题
你好,裁剪256*256是在训练命令中那个crop_size吗?我的F1得分只有0.773,Precision只有0.6
@
论文结果复现了, 没什么问题
你好,裁剪256*256是在训练命令中那个crop_size吗?我的F1得分只有0.773,Precision只有0.6
有设置crop_size 256 感觉不影响,默认就是256
@GuitarZhang batch_size设的是8,没有重叠,我之前也是0.78,把那个ds设置成1,就好的
ds默认的不就是1么?我crop_size和load_size设置为128能跑,PAM的F1是0.843,设置为256还是爆显存,我已经把图片都切成256x256的了,请问您还做了其他的更改么?
@GuitarZhang batch_size设的是8,没有重叠,我之前也是0.78,把那个ds设置成1,就好的
ds默认的不就是1么?我crop_size和load_size设置为128能跑,PAM的F1是0.843,设置为256还是爆显存,我已经把图片都切成256x256的了,请问您还做了其他的更改么?
并没有其他修改,可能是我显存比较大32G,你有这个数据集吗 https://tianchi.aliyun.com/competition/entrance/231615/information
@GuitarZhang batch_size设的是8,没有重叠,我之前也是0.78,把那个ds设置成1,就好的
ds默认的不就是1么?我crop_size和load_size设置为128能跑,PAM的F1是0.843,设置为256还是爆显存,我已经把图片都切成256x256的了,请问您还做了其他的更改么?
并没有其他修改,可能是我显存比较大32G,你有这个数据集吗 https://tianchi.aliyun.com/competition/entrance/231615/information
没有,我用的他的LEVIR-CD的数据集
@GuitarZhang batch_size设的是8,没有重叠,我之前也是0.78,把那个ds设置成1,就好的
ds默认的不就是1么?我crop_size和load_size设置为128能跑,PAM的F1是0.843,设置为256还是爆显存,我已经把图片都切成256x256的了,请问您还做了其他的更改么?
你好,你的显存是多大的,我的是8G,设置ds=1,crop_size和load_size为128显存就炸了
请问你是用默认学习率0.0002,还是0.001, 我换成0.001直接没法学习,梯度爆炸
论文结果复现了, 没什么问题 您好,我开始运行train.py之后,出现下面的错误,请问你知道如何解决吗? Experiment/codes/33_STANet/STANet/models/CDF0_model.py", line 79, in test metrics.update(self.L.detach().cpu().numpy(), pred.detach().cpu().numpy()) File "/content/drive/MyDrive/Experiment/codes/33_STANet/STANet/util/metrics.py", line 121, in update self.confusion_matrix += self.fast_hist(lt.flatten(), lp.flatten()) File "/content/drive/MyDrive/Experiment/codes/33_STANet/STANet/util/metrics.py", line 108, in fast_hist hist = np.bincount(self.num_classes * label_gt[mask].astype(int) + label_pred[mask], IndexError: boolean index did not match indexed array along dimension 0; dimension is 67108864 but corresponding boolean dimension is 1048576
请问你是用默认学习率0.0002,还是0.001, 我换成0.001直接没法学习,梯度爆炸 学习率用的默认的
论文结果复现了, 没什么问题 您好,我开始运行train.py之后,出现下面的错误,请问你知道如何解决吗? Experiment/codes/33_STANet/STANet/models/CDF0_model.py", line 79, in test metrics.update(self.L.detach().cpu().numpy(), pred.detach().cpu().numpy()) File "/content/drive/MyDrive/Experiment/codes/33_STANet/STANet/util/metrics.py", line 121, in update self.confusion_matrix += self.fast_hist(lt.flatten(), lp.flatten()) File "/content/drive/MyDrive/Experiment/codes/33_STANet/STANet/util/metrics.py", line 108, in fast_hist hist = np.bincount(self.num_classes * label_gt[mask].astype(int) + label_pred[mask], IndexError: boolean index did not match indexed array along dimension 0; dimension is 67108864 but corresponding boolean dimension is 1048576
不好意思,时间过去有点久,不是很清楚这个错误是否遇到过
@GuitarZhang batch_size设的是8,没有重叠,我之前也是0.78,把那个ds设置成1,就好的
ds默认的不就是1么?我crop_size和load_size设置为128能跑,PAM的F1是0.843,设置为256还是爆显存,我已经把图片都切成256x256的了,请问您还做了其他的更改么?
你好,你的显存是多大的,我的是8G,设置ds=1,crop_size和load_size为128显存就炸了
32G
有遇到过,最后把图像裁剪成256x256输入,再训练就没这个问题了
你好,前面base的模型已经跑通. 但是现在换到-- lr 0.0002 --model CDFA0 --SA_mode BAM --batch_size 2 crop_size 256, 但是结果都还是先和隔壁的问题一样, CUDA out of memory. Tried to allocate 256.00 GiB 我的 GPU 1: 10.76 GiB,ds设置为1。出现上面的问题是跑了一个epoch以后,才出现的。如果batch_size =8, 第一个epoch都不能跑。 请问你有什么建议?
还有,您说的剪切是不是代码中的crop size=256,还是要自己先在其他地方剪切呢?
论文结果复现了, 没什么问题