TsingZ0 / PFLlib

37 traditional FL (tFL) or personalized FL (pFL) algorithms, 3 scenarios, and 20 datasets.
GNU General Public License v2.0
1.35k stars 283 forks source link

2000 iterations #174

Closed kinhxx closed 5 months ago

kinhxx commented 5 months ago

We run all tasks up to 2000 iterations until all methods converge empirically。

FedCP论文中实验,请问所有的实验都是完成2000轮迭代吗? 本人也是在做一些实验复现学习,所以有些疑惑,希望可以解答,谢谢 ! !

kinhxx commented 5 months ago

1 在表4中验证可扩展性时,规律是N越大准确率会逐步降低。 但在表2中N=20的实验准确率是高于所有其他的参数设置的。 所以后面实验也是2000轮迭代后最高准确率吗?

TsingZ0 commented 5 months ago

所以后面实验也是2000轮迭代后最高准确率吗?

是的,因为超参数是在20个clients的场景下调的,其他场景下没调整了,所以在20个clients的场景中的acc比较好。当N不同的时候,其实整个联邦学习的场景设定就不同了,不同的N的场景下结果进行横向对比是没有意义的。可扩展性,主要是探索当N变大后,FedCP是否在跟SOTA方法对比上还有优势。