brcarry / ADBA

Unofficial PyTorch implementation of Anti Distillation Backdoor Attacks(MM '21)
3 stars 3 forks source link

To 作者 #1

Open 741012278 opened 1 year ago

741012278 commented 1 year ago

ZJU的同学你好,我是HDU的研究生,最近我也有复现这篇Anti-Distillation Backdoor Attacks的文章,对这篇工作是否能达到效果有质疑,请问同学可否私下交流一下idea。十分感谢🙏!v:bafeiteplus

brcarry commented 1 year ago

您好,在实验中,如果仅仅根据文章描述的训练得到mask和pattern,实际效果并不好(asr较低)。 我是在得到mask和pattern后。固定mask和pattern,使用badnet的方法进一步让模型学习后门,这样得到的asr较高。 当然固定mask和pattern这步在原始论文中并没有提及,发邮件联系作者也没有得到回复,所以并不确定对方实际训练的时候,有没有用这个trick。

YuanShunJie1 commented 8 months ago

同学 你好 “我是在得到mask和pattern后。固定mask和pattern,使用badnet的方法进一步让模型学习后门,这样得到的asr较高。”,我想问一下,这句话的意思是在得到触发器之后,在训练学生模型的过程中需要在数据集中添加触发器并改变样本标签吗?请问可以加一下微信讨论一下吗

brcarry commented 8 months ago

同学 你好 “我是在得到mask和pattern后。固定mask和pattern,使用badnet的方法进一步让模型学习后门,这样得到的asr较高。”,我想问一下,这句话的意思是在得到触发器之后,在训练学生模型的过程中需要在数据集中添加触发器并改变样本标签吗?请问可以加一下微信讨论一下吗

你好!代码总体逻辑是这样的:在第一阶段和原文保持一致动态更新trigger,但效果(asr)不佳;所以我额外增加了第二阶段,固定trigger训练后门,这是和文章有出入的(文章没有明说是否使用了这个trick)。 并不是将后门直接加在学生模型(server model)上,而是在local model的训练的第二阶段。 具体的实现可以看main.py中第149~175行: https://github.com/brcarry/ADBA/blob/98490bffe3379a02e4697464495bb0485c58da4b/main.py#L149-L175

可以加微信交流哦~ 我的微信号是T1Fakerr,不过我现在并不继续AI安全方面的科研了,可能帮助有限。