Open showmeyourcodehaha opened 5 months ago
您好,可以看一下预训练的CC效果是否合理,对于类别个数较大的数据集,可以考虑增大batch size来保证cluster-head contrast的有效性
您好,可以看一下预训练的CC效果是否合理,对于类别个数较大的数据集,可以考虑增大batch size来保证cluster-head contrast的有效性
非常感谢您的答复,您说增大batchsize是为了保证cluster-head的有效性,那么对instance-head呢?因为在我比较有限的理解中,针对对比学习增大batchsize就是增加了负样本的数量,从而提升性能,而您说的“保证cluster-head的有效性”具体是什么含义呢? 其次就是您说到类比较多的时候,增大batchsize,那么要想达到一定效果,cluster_num / batchsize是否应该是个定值呢?您有没有做过相关实验呢?而具体有时是什么原因造成的这种结果呢?
Cluster head是在列空间进行类别级对比学习,对于其中的某一列,需要在当前batch中存在该列对应类别的样本,那么该列才能够有效的描述类别。Instance head由于在行空间进行实例级的对比,对于batch size的要求相对低一些。对于这个具体的比例我没有做过分析试验,根据经验只要保证平均每个类有一定数量的样本即可。
您好!我尝试使用您的CC聚类方法去替换传统deepcluster中K-means,我主体上使用的是您的代码,只是在cluster.py中去增加了一些部分,增加的部分是使用deepcluster的方式去训练。同时我使用了Market数据集,我之前已经在这个Market数据集上以CC的算法对模型进行预训练了(1000epoch),代码如下: P.S.:被#框起来的部分是我新加进去的。 但是这段代码并不work。loss并不下降,并且ACC甚至会降低。 我只是一个研一的新生,代码能力有限,实在是不明白问题出在了那里,请您指点一二。