Open vxfla opened 3 weeks ago
你好,我是在本地部署的API,没有对外的接口,这里的调用方式是采用llamafactory文档中的方式启动服务后,结合给出的API文档中的参数自己写的。
将仙 @.***
------------------ 原始邮件 ------------------ 发件人: "hiyouga/LLaMA-Factory" @.>; 发送时间: 2024年11月18日(星期一) 晚上7:47 @.>; @.**@.>; 主题: Re: [hiyouga/LLaMA-Factory] reward model 使用do_predict得到的结果和直接用api部署不同 (Issue #5967)
@vxfla 你好,请问一下,我用你的调用api方法404,请问做了什么修改吗,谢谢
— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you were mentioned.Message ID: @.***>
你好,我是在本地部署的API,没有对外的接口,这里的调用方式是采用llamafactory文档中的方式启动服务后,结合给出的API文档中的参数自己写的。 将仙 @. … ------------------ 原始邮件 ------------------ 发件人: "hiyouga/LLaMA-Factory" @.>; 发送时间: 2024年11月18日(星期一) 晚上7:47 @.>; @*.**@*.>; 主题: Re: [hiyouga/LLaMA-Factory] reward model 使用do_predict得到的结果和直接用api部署不同 (Issue #5967) @vxfla 你好,请问一下,我用你的调用api方法404,请问做了什么修改吗,谢谢 — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you were mentioned.Message ID: @.>
我搞错了,根据你的可以调用成功,我问下reward的分数,越高越说明回答好是不
Reminder
System Info
llamafactory
version: 0.8.4.dev0Reproduction
如下两种方式对同一批数据打分结果不一致: 方式1: 本地部署一个训练过的reward model API_PORT=8001 llamafactory-cli api --model_name_or_path xxx --template qwen --stage rm
通过如下方式获取score
model_name_or_path: xxx
stage: rm do_train: false do_eval: false do_predict: true
eval_dataset: xxx template: qwen cutoff_len: 1024 max_samples: 10000 overwrite_cache: true preprocessing_num_workers: 16
output_dir: xxx
per_device_eval_batch_size: 1