Open Heaverno opened 1 month ago
值得注意的是,一开始文件并没有出现在autodl-tmp里
root@8e103738cdd9:~# ls
Linly-Talker autodl-pub autodl-tmp miniconda3 nltk_data tf-logs
原因是nvidia-docker过时了,重启了一下装了nvidia-container-tookit就好了。但是CG客户端的jupyterlab又不能用了,还好CLI能用 但是内外网也用不了了,简而言之就是别用cg客户端
值得注意的是,一开始文件并没有出现在autodl-tmp里
root@8e103738cdd9:~# ls Linly-Talker autodl-pub autodl-tmp miniconda3 nltk_data tf-logs
你好,请问下这个autodl-tmp挂载映射的是什么内容啊?我本来以为是把linly-talk的代码挂载到这里,但是我看启动的容器里已经有代码了,root/linly-talk就是代码。 另外如果我启动外部最新的代码autodl-tmp挂载,报错模型找不到错误比较多; 而直接启动容器自带的root/linly-talk,只报了edgetts模块错误。 启动的都是webui.py,我哪里操作有问题吗?
通过CG客户端拉取的v4镜像,在jupyterlab里运行webui.py报错 网上说这种报错一般因为cuda pytorch等版本对不上,但是镜像里会出现这种问题吗 win11就装了显卡驱动和docker desktop,wsl-ubuntu根据CG客户端教程装了cg-client和nvidia-docker 镜像里nvcc报告cuda版本为11.8.89