Open JAYCHUS opened 4 months ago
请问有完整的requirements吗 配环境真的很烦人😍😍
这个环境安装比较容易
训练cityscapes (yaml文件是dsnet_cityscapes.yaml)的时候 我有三台4090为什么服务器数量 设置为1台或两台或者三台 都显示gpu数量不匹配(train脚本输出的) 然后就是内存溢出 这里要在哪里设置啊
不匹配不用管,那段代码我忘了删了。内存溢出应该是batchsize设大了。
谢谢你 你真是互联网活人 之前发的issue都没人回我 batchsize跟之前跑的设置的一样 估计服务器出问题了 还有就是我想问你一个问题 就是很多模型都说在imagenet上做了预训练 那他们拿他们的模型在imagenet上做了预训练 用在imagenet上得到的预训练权重去训练别的数据集 说是可以提高训练速度或者精度啥的 但是如果我将他们的模型改了 那我要拿着我修改的模型再去imagenet上做预训练吗 还是用他们之前的就行 是不是不行啊 这个问题我思考了挺久的 因为我比较菜 希望回我 你是好人!!!!!
谢谢你 你真是互联网活人 之前发的issue都没人回我 batchsize跟之前跑的设置的一样 估计服务器出问题了 还有就是我想问你一个问题 就是很多模型都说在imagenet上做了预训练 那他们拿他们的模型在imagenet上做了预训练 用在imagenet上得到的预训练权重去训练别的数据集 说是可以提高训练速度或者精度啥的 但是如果我将他们的模型改了 那我要拿着我修改的模型再去imagenet上做预训练吗 还是用他们之前的就行 是不是不行啊 这个问题我思考了挺久的 因为我比较菜 希望回我 你是好人!!!!!
看你修改的地方在哪,如果你修改的地方不是在主干里面的话(比如我这个网络里面的上下文模块或者decoder),是可以不用重新在imagenet上预训练。如果你对主干进行了修改的话,是需要重新再imagenet上进行预训练的。 有关于预训练可以提高下游任务的精度的问题,你可以再读一遍DSNet论文的3.1节,或许对你有帮助。 另外你github上的issue得到比较少回答的原因可能是因为你没点star哈哈。
哈哈哈 已经狠狠star了
if config.TRAIN.RESUME:
model_state_file = os.path.join(config.MODEL.PRETRAINED)
if os.path.isfile(model_state_file):
checkpoint = torch.load(model_state_file, map_location={'cuda:0': 'cpu'})
best_mIoU = checkpoint['best_mIoU']
last_epoch = checkpoint['epoch']
dct = checkpoint['state_dict']
model.module.model.load_state_dict({k.replace('model.', ''): v for k, v in dct.items() if k.startswith('model.')})
optimizer.load_state_dict(checkpoint['optimizer'])
logger.info("=> loaded checkpoint (epoch {})".format(checkpoint['epoch']))
if distributed:
torch.distributed.barrier()
请问服务器中断了 我想从上一次checkpoint继续训练是吧这里的config.MODEL.PRETRAINED修改成保存的checkpoint那个文件的路径吗 还是哪里 谢谢你 非常感谢 极其感谢 真的很感谢 是的,同时config里面的resume设为true
请问有完整的requirements吗 配环境真的很烦人😍😍