Closed DaBaiTuu closed 9 months ago
啊,不是纯对hf适配的吗
啊,不是纯对hf适配的吗
modelscope 确实 纯对 hf 适配的,但只适用于 cli_demo_hf那个py文件, web_domo.py 里是对 sat 适配的, 由于下载原因我只能手动去下载modelscope 的文件, 因此我想要运行的webdemo的时候就有 “未有model_config.json” 的报错
你试试hf的webdemo? 有一个streamlit的呀 完整demo
你试试hf的webdemo? 有一个streamlit的呀 完整demo
哦哦,你说的是composite_domo 文件夹吧,我确实没注意到,我只看了Readme 里的basicdomo, 然后 我试了一下,手动改了一下你的脚本加了load_in_4bit=True,,因为我显存不够:
model = AutoModelForCausalLM.from_pretrained( model_info['path'], torch_dtype=torch_type, low_cpu_mem_usage=True, load_in_4bit=True, trust_remote_code=True, ).eval()
出现了错误: Please Enter your Baidu Translation API Key in function translate_baidu()
很奇怪,怎么那一步会去调 translate_baidu()
如果你用中文就需要填写百度的翻译,这个模型不支持中文
如果你用中文就需要填写百度的翻译,这个模型不支持中文
好的谢谢,不过 cli_demo_hf那个py文件有的时候能使用中文。
因为vicuna 本身能回答一点点中文
请问怎么解决的呢,我也遇到了同样的问题。
请问怎么解决的呢,我也遇到了同样的问题。
你好好看看我的解决流程,本质上避免 使用sat 库去解析你从 hf ms 下的文件
System Info / 系統信息
无关
Who can help? / 谁可以帮助到您?
No response
Information / 问题信息
Reproduction / 复现过程
由于 网络问题 不能直接使用 sat 的 下载流程,因此手动下载 modelscope 的 文件 , 除了能 在 hf 的环境示例下运行 ,在运行 web demo 的文件时,由于 范例给出的 from_pretrained()函数是 sat 库的,因此在拿来导入 modelscope 下载的模型时 不适配 需要导入 model_config.json 这是没有的,我手动改为 由 transformers 的 from_pretrained 方式 有有些其他错误,所以烦请在 web_demo 里对 modelscope 下载 模型 给予适配,亦或给出改动建议,多谢
Expected behavior / 期待表现
web_demo 里对 modelscope 下载 模型 给予适配,亦或给出改动建议