Open momo4826 opened 3 months ago
- 只使用embedding模型的结果怎样呢
- 微调reranker可以换一份数据,用微调好的embedding模型获取新的negatives,参考https://github.com/FlagOpen/FlagEmbedding/tree/master/examples/finetune#hard-negatives
- negatives数量确实会影响, 但是一般来讲7或15个都是足够的
- 从头训的话需要大量的数据,所以效果可能不会太好,得基于bge-reranker-v2-minicpm-layerwise进行微调,你这里batch size用的是多大呢,是128训了50 steps吗
- 基于bge-reranker-v2-minicpm-layerwise进行from_finetuned_model模式的微调其它参数都保持一致就行,你这里可以换份negatives训练,同时也测一下top-5,top-10之类的结果
感谢回复!
2.3.5. 好的,我按照这个建议试下
您好,我用同样的数据集对bge-m3和bge-reranker-v2-minicpm-layerwise做了微调,但是得到的top1准确率出乎意料,结果如下:
出乎意料的点主要在于第4版的效果格外好以及第5版的结果格外不够好,分析和提问如下:
提问有点长,thanks for your time, 期待回复!