Closed re-burn closed 3 years ago
先说一下配置,rtx2080ti,4gpu,前几天训练的时候batch_size最大设置为32都不会爆显存,大概是从周四晚上开始,用跟之前一模一样的数据集和一模一样的模型(就只改了lr,anchors和alpha)结果加载数据的时候就报oom了,把batch_size减小到4以后(也就是一个gpu一张图片)才勉强能训练,但还是会跑到一半报oom,请问大佬这是什么原因呢
这个原因很多,后处理部分可能会有出入,比如threshold过滤出来的anchor越多,内存就用得越多
先说一下配置,rtx2080ti,4gpu,前几天训练的时候batch_size最大设置为32都不会爆显存,大概是从周四晚上开始,用跟之前一模一样的数据集和一模一样的模型(就只改了lr,anchors和alpha)结果加载数据的时候就报oom了,把batch_size减小到4以后(也就是一个gpu一张图片)才勉强能训练,但还是会跑到一半报oom,请问大佬这是什么原因呢