Closed newfyu closed 6 months ago
一般推荐使用1024的长度进行推理 但模型本身支持更长的长度,具体可以参考基座模型所支持的长度 (https://huggingface.co/google/gemma-2b https://huggingface.co/openbmb/MiniCPM-2B-dpo-bf16 https://huggingface.co/BAAI/bge-m3)
一般推荐使用1024的长度进行推理 但模型本身支持更长的长度,具体可以参考基座模型所支持的长度 (https://huggingface.co/google/gemma-2b https://huggingface.co/openbmb/MiniCPM-2B-dpo-bf16 https://huggingface.co/BAAI/bge-m3)
明白了,还有就是LLM-based reranker好像只使用了单个GPU推理,能否多GPU推理
可以借助multiprocessing.Process,利用多进程进行多GPU推理
好的,谢谢
请问新版的reranker-v2支持多大的长度呢,看了下readme没查到