Open 20231211 opened 1 month ago
你好,我在dist.py中看到这段代码 def set_seed(seed):
seed = seed + get_rank() torch.manual_seed(seed) np.random.seed(seed) random.seed(seed)
但似乎程序中没有调用这段代码,我需要复刻实验结果,但跑出的实验结果已经不同了😭
之前确实没写seed的逻辑 参考这个PR吧
https://github.com/lyuwenyu/RT-DETR/pull/370
@lyuwenyu 请问这句是为什么seed = seed + get_rank()
如果用多张GPU跑,是否需要设置torch.cuda.manual_seed_all(seed)
你好,我在dist.py中看到这段代码 def set_seed(seed):
fix the seed for reproducibility
但似乎程序中没有调用这段代码,我需要复刻实验结果,但跑出的实验结果已经不同了😭