# Build the large-v3 model using a single GPU with plugins.
python3 build.py --output_dir whisper_large_v3 --use_gpt_attention_plugin --use_gemm_plugin --use_bert_attention_plugin --enable_context_fmha
报错:
OSError: libcuda.so.1: cannot open shared object file: No such file or directory
这是sharpa/triton/whisper下面的readme文件,我想把这里的操作写到dockerfile里面,将server一键run起来,但是标记出来的编译操作在dockerfile中用RUN执行会报很多环境错误,直接在docker中执行没有这些问题,想知道这个操作是不是不适合写在dockerfile中。
执行的操作:
报错:
解决:
继续报错:
@yuekaizhang