Open weiminw opened 1 month ago
感谢你们发布强悍的模型,是否可以发出 awq或者 gptq-int4
好的 我会反馈需求。此外,社区已经有相应的版本,你可以测试使用~
目前还未找到34b-chat-16k的4bit量化模型,只见过4k上下文版本的量化模型。 如果大家发现了量化后的34b-chat-16k模型,能否分享一下?谢谢!
@zhanghx0905 https://modelscope.cn/models/tclf90/Yi-1.5-34B-Chat-16K-GPTQ-Int4/summary
感谢你们发布强悍的模型,是否可以发出 awq或者 gptq-int4