Closed LightingFx closed 1 month ago
看上去 import sentence_transfoermers 的时候 sklearn 有问题
ImportError: /home/chenfx/miniconda3/envs/xinfer/lib/python3.10/site-packages/sklearn/utils/../../scikit_learn.libs/libgomp-d22c30c5.so.1.0.0: cannot allocate memory in static TLS block
请检查下环境。
export LD_PRELOAD=$LD_PRELOAD:/home/chenfx/miniconda3/envs/xinfer/lib/python3.10/sitepackages/sklearn/utils/../../scikit_learn.libs/libgomp-d22c30c5.so.1.0.0
export LD_PRELOAD=$LD_PRELOAD:/home/chenfx/miniconda3/envs/xinfer/lib/python3.10/sitepackages/sklearn/utils/../../scikit_learn.libs/libgomp-d22c30c5.so.1.0.0
感谢,加载了环境变量后已经正常
@LightingFx 部署之后有调用npu么,我部署启动embedding模型,向量化过程特别慢,应该是没调用npu
@LightingFx 部署之后有调用npu么,我部署启动embedding模型,向量化过程特别慢,应该是没调用npu
我也是部署embedding模型,刚开始向量化确实比较慢,我top和npu-smi都看了,npu有占用也有在使用
我这一直都很慢,我试图用--gpu-idx指定npu, 但是没用
好像只有启动llm指定Transformers 引擎才能调用npu
embedding 会调用的,但是我们试下来确实很慢。
我们企业版提供了加速方案,开源版本暂时还没有加速方案。
昇腾服务器用xinference没用,特别慢不说,还一堆问题。 官方说推理引擎还是用MindIE(支持310P,910P)和Ascend vllm(仅支持910P)
开源版本会比较慢,昇腾上推荐使用 Xinference 企业版。
硬件信息:昇腾910 Ascend CANN version=23.0.rc2 python: 3.10 transformers:4.43.3 xinference:0.13.3 sentence-transformers:3.0.1 启动方式:xinference-local --host 0.0.0.0 --port 9997 加载模型:xinference launch --model-engine transformers --model-name bge-base-zh-v1.5 --model-type embedding
按照官方提供的在 昇腾 NPU 上安装 教程安装完成后,提示 ImportError: [address=0.0.0.0:45409, pid=484951] Failed to import module 'SentenceTransformer'。 但实际环境中已经安装sentence-transformers,原因是否和昇腾版安装有关系?应该怎样解决呢?
具体报错信息:
环境信息: