Closed JohnHerry closed 9 months ago
尝试了chinese-lert-large 模型,用于推理,使用AutoModelForMaskedLM加载的,3090 24G显卡,加载时居然内存不够呢。请问这些模型推理时需要耗费这么大显存吗?
请问 chinese-roberta-large , 使用AutoModelForMaskedLM 加载,跟直接用BertModel加载,使用方向上有何不同?
尝试了chinese-lert-large 模型,用于推理,使用AutoModelForMaskedLM加载的,3090 24G显卡,加载时居然内存不够呢。请问这些模型推理时需要耗费这么大显存吗?