Closed SXxinxiaosong closed 2 weeks ago
你好,因为大表综合考虑了更多的评估准则,counterfact构建成本更高,我们选择了wiki-counterfact。
有两个问题请教一下:
https://rome.baulab.info/data/stats/
下载计算好的C,在https://github.com/zjunlp/EasyEdit/blob/6ce393c8ab64795394e77891dedf8d724977a2b0/hparams/ROME/gpt-j-6B.yaml#L3
中换成本地路径即可我是在用llama-2-7b-chat编辑,似乎https://rome.baulab.info/data/stats/中是GPT相关的C?
是的,那你需要等待了,或者你可以把mom2_adjustment设置为false
https://pan.baidu.com/s/1iFxsVu5gAD8r_kELfAbcBw?pwd=7jya&_at_=1719341021014#list/path=%2F 这里有llama的 rome和r-rome的具体区别建议您去看r-rome的论文:Rebuilding ROME : Resolving Model Collapse during Model Editing
好哒,谢谢解答~
还有请问 表格中的评估是single-edit的结果吗
你好,是的 单条edit的结果。近期easyedit有较大的更新我们也会更新表格的结果。
您好,请问为什么在大表中没有counterfact数据集的性能比较,是出于什么考虑呢?