Open xj120 opened 2 months ago
您好,我们环境使用的protobuf
的版本是5.26.1
。如果仍然不行,请告知我transformers
包的版本号,以便于我复现您的问题,我们当前环境使用的transformers
的版本号是4.41.2
。:)
您好,我的protobuf包安装了5.26.1版本,仍然是报RecursionError: maximum recursion depth exceeded的错误,我的transformers版本为4.40.2
请问下最后解决了吗?我和您遇到了同样的问题
请问下最后解决了吗?我和您遇到了同样的问题
没有
严格按照1.1环境配置来配置环境 首先遇到TypeError,随后更新了transformers包 然后执行命令python examples/generate_lora.py --base_model zjunlp/knowlm-13b-zhixi --run_ie_cases 遇到显存不足的问题 然后修改命令为CUDA_VISIBLE_DEVICES=0,1 python examples/generate_lora.py --base_model zjunlp/knowlm-13b-zhixi --run_ie_cases 也是显示同样的信息,似乎1号卡并没有用上。。服务器有两张titan,显存加起来有48G 再修改命令为CUDA_VISIBLE_DEVICES=0,1 python examples/generate_lora.py --base_model zjunlp/knowlm-13b-zhixi --run_ie_cases --multi_gpu ,出现如下结果 若按照提示信息执行 pip install protobuf==3.20.0,运行命令又会报如下错误