Open whyPeanutbutter opened 1 year ago
我一台机器上有两个GPU,在跑作者给出的例子时,发现只有一个GPU跑满,另一个利用率为0,增大token后,会超出memory,但是第二张卡依然没有使用。 尝试了网上多种多GPU的写法(比如torch.nn.DataParallel、设置'CUDA_VISIBLE_DEVICES'、或者设置torch.distributed.init_process_group(backend='nccl')等等)也没能使用到第二张卡,所以请问下我需要修改什么部分使得其可以使用多张卡进行推理? 麻烦给个大致方向也行或者修改什么文件,我现在完全没有思路,万分感谢指导🙏🙏
我一台机器上有两个GPU,在跑作者给出的例子时,发现只有一个GPU跑满,另一个利用率为0,增大token后,会超出memory,但是第二张卡依然没有使用。 尝试了网上多种多GPU的写法(比如torch.nn.DataParallel、设置'CUDA_VISIBLE_DEVICES'、或者设置torch.distributed.init_process_group(backend='nccl')等等)也没能使用到第二张卡,所以请问下我需要修改什么部分使得其可以使用多张卡进行推理? 麻烦给个大致方向也行或者修改什么文件,我现在完全没有思路,万分感谢指导🙏🙏