QwenLM / Qwen-VL

The official repo of Qwen-VL (通义千问-VL) chat & pretrained large vision language model proposed by Alibaba Cloud.
Other
4.88k stars 373 forks source link

本地跑模型就这么难吗??!!! #294

Open loks666 opened 7 months ago

loks666 commented 7 months ago

是否已有关于该错误的issue或讨论? | Is there an existing issue / discussion for this?

该问题是否在FAQ中有解答? | Is there an existing answer for this in FAQ?

当前行为 | Current Behavior

C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead. torch.utils._pytree._register_pytree_node( 2024-02-21 23:09:32,828 - modelscope - WARNING - Using the master branch is fragile, please use it with caution! 2024-02-21 23:09:32,829 - modelscope - INFO - Use user-specified model revision: master Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.16k/1.16k [00:00<00:00, 296kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.13k/1.13k [00:00<00:00, 289kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2.04k/2.04k [00:00<00:00, 691kB/s] Downloading: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 485k/485k [00:00<00:00, 1.76MB/s] Downloading: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 233k/233k [00:00<00:00, 1.44MB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2.10k/2.10k [00:00<00:00, 717kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 5.96k/5.96k [00:00<00:00, 434kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 6.83k/6.83k [00:00<00:00, 280kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 6.03k/6.03k [00:00<00:00, 466kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 5.26k/5.26k [00:00<00:00, 604kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 7.02k/7.02k [00:00<00:00, 481kB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 221/221 [00:00<00:00, 55.1kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 6.74k/6.74k [00:00<00:00, 286kB/s] Downloading: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 107k/107k [00:00<00:00, 1.18MB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 43.6k/43.6k [00:00<00:00, 723kB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2.44M/2.44M [00:01<00:00, 2.16MB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 14.5k/14.5k [00:00<00:00, 463kB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 92.4k/92.4k [00:00<00:00, 1.49MB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 24.7k/24.7k [00:00<00:00, 810kB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 10.0M/10.0M [00:04<00:00, 2.17MB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 21.4k/21.4k [00:00<00:00, 705kB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 173/173 [00:00<00:00, 42.8kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 14.2k/14.2k [00:00<00:00, 470kB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 8.31k/8.31k [00:00<00:00, 2.12MB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 10.9k/10.9k [00:00<00:00, 2.78MB/s] 2024-02-21 23:09:52,505 - modelscope - WARNING - Download interval is too small, use local cache Traceback (most recent call last): File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 247, in main() File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 241, in main model, tokenizer = _load_model_tokenizer(args) File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 55, in _load_model_tokenizer model = AutoModelForCausalLM.from_pretrained( File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 111, in from_pretrained module_obj = module_class.from_pretrained(model_dir, model_args, File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\models\auto\auto_factory.py", line 511, in from_pretrained return model_class.from_pretrained( File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 74, in from_pretrained return ori_from_pretrained(cls, model_dir, model_args, **kwargs) File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\modeling_utils.py", line 2650, in from_pretrained raise EnvironmentError( OSError: Error no file named pytorch_model.bin, tf_model.h5, model.ckpt.index or flax_model.msgpack found in directory C:\Users\Jax.cache\modelscope\hub\qwen\Qwen-VL-Chat. (39) PS H:\Project\AI\Qwen-VL> python .\web_demo_mm.py 2024-02-21 23:12:19,981 - modelscope - INFO - PyTorch version 2.2.0+cu121 Found. 2024-02-21 23:12:19,982 - modelscope - INFO - Loading ast index from C:\Users\Jax.cache\modelscope\ast_indexer 2024-02-21 23:12:20,080 - modelscope - INFO - Loading done! Current index file version is 1.12.0, with md5 5e0ee76b2102930e2aade1e27c42075b and a total number of 964 components indexed C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead. torch.utils._pytree._register_pytree_node( C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead. torch.utils._pytree._register_pytree_node( urllib3.exceptions.ProtocolError: ('Connection aborted.', ConnectionAbortedError(10053, '你的主机中的软件中止了一个已建立的连接。', None, 10053, None))

The above exception was the direct cause of the following exception:

Traceback (most recent call last): File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\adapters.py", line 486, in send resp = conn.urlopen( File "C:\Users\Jax.conda\envs\39\lib\site-packages\urllib3\connectionpool.py", line 877, in urlopen return self.urlopen( File "C:\Users\Jax.conda\envs\39\lib\site-packages\urllib3\connectionpool.py", line 877, in urlopen return self.urlopen( File "C:\Users\Jax.conda\envs\39\lib\site-packages\urllib3\connectionpool.py", line 847, in urlopen retries = retries.increment( File "C:\Users\Jax.conda\envs\39\lib\site-packages\urllib3\util\retry.py", line 515, in increment raise MaxRetryError(_pool, url, reason) from reason # type: ignore[arg-type] urllib3.exceptions.MaxRetryError: HTTPSConnectionPool(host='www.modelscope.cn', port=443): Max retries exceeded with url: /api/v1/models/qwen/Qwen-VL-Chat/revisions (Caused by ProtocolError('Connection aborted.', ConnectionAbortedError(10053, '你的主机中的软件中止了一个已建 立的连接。', None, 10053, None)))

During handling of the above exception, another exception occurred:

Traceback (most recent call last): File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 247, in main() File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 241, in main model, tokenizer = _load_model_tokenizer(args) File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 46, in _load_model_tokenizer tokenizer = AutoTokenizer.from_pretrained( File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 103, in from_pretrained model_dir = snapshot_download( File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\hub\snapshot_download.py", line 117, in snapshot_download revision_detail = _api.get_valid_revision_detail( File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\hub\api.py", line 494, in get_valid_revision_detail all_branches_detail, all_tags_detail = self.get_model_branches_and_tags_details( File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\hub\api.py", line 572, in get_model_branches_and_tags_details r = self.session.get(path, cookies=cookies, File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\sessions.py", line 602, in get return self.request("GET", url, kwargs) File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\sessions.py", line 589, in request resp = self.send(prep, send_kwargs) File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\sessions.py", line 703, in send r = adapter.send(request, kwargs) File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\adapters.py", line 519, in send raise ConnectionError(e, request=request) requests.exceptions.ConnectionError: HTTPSConnectionPool(host='www.modelscope.cn', port=443): Max retries exceeded with url: /api/v1/models/qwen/Qwen-VL-Chat/revisions (Caused by ProtocolError('Connection aborted.', ConnectionAbortedError(10053, '你的主机中的软件中止了一个已立的连接。', None, 10053, None))) (39) PS H:\Project\AI\Qwen-VL> python .\web_demo_mm.py 2024-02-21 23:13:05,437 - modelscope - INFO - PyTorch version 2.2.0+cu121 Found. 2024-02-21 23:13:05,438 - modelscope - INFO - Loading ast index from C:\Users\Jax.cache\modelscope\ast_indexer 2024-02-21 23:13:05,536 - modelscope - INFO - Loading done! Current index file version is 1.12.0, with md5 5e0ee76b2102930e2aade1e27c42075b and a total number of 964 components indexed C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead. torch.utils._pytree._register_pytree_node( C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead. torch.utils._pytree._register_pytree_node( 2024-02-21 23:13:07,278 - modelscope - WARNING - Using the master branch is fragile, please use it with caution! 2024-02-21 23:13:07,278 - modelscope - INFO - Use user-specified model revision: master 2024-02-21 23:13:08,045 - modelscope - WARNING - Download interval is too small, use local cache Traceback (most recent call last): File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 247, in main() File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 241, in main model, tokenizer = _load_model_tokenizer(args) File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 55, in _load_model_tokenizer model = AutoModelForCausalLM.from_pretrained( File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 111, in from_pretrained module_obj = module_class.from_pretrained(model_dir, model_args, File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\models\auto\auto_factory.py", line 511, in from_pretrained return model_class.from_pretrained( File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 74, in from_pretrained return ori_from_pretrained(cls, model_dir, model_args, kwargs) File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\modeling_utils.py", line 2650, in from_pretrained raise EnvironmentError( OSError: Error no file named pytorch_model.bin, tf_model.h5, model.ckpt.index or flax_model.msgpack found in directory C:\Users\Jax.cache\modelscope\hub\qwen\Qwen-VL-Chat. (39) PS H:\Project\AI\Qwen-VL>

期望行为 | Expected Behavior

我期望自己下包能别这么多幺蛾子!!! 给我个百度下载的链接都行啊!!!!!!!!!!!

复现方法 | Steps To Reproduce

首先你们的markdown没有任何本地部署的教程,我是根据各种帖子自己实践的,首先安装这个三个依赖,requirements.txt,requirements_openai_api.txt,requirements_web_demo.txt,然后安装pytorch,官网装的pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121,然后执行python .\web_demo_mm.py

运行环境 | Environment

- OS:win11
- Python:conda 3.9.11
- Transformers:
- PyTorch:11.8 and 12.1
- CUDA (`python -c 'import torch; print(torch.version.cuda)'`):

备注 | Anything else?

(39) PS H:\Project\AI\Qwen-VL> python .\web_demo_mm.py 2024-02-21 23:07:35,508 - modelscope - INFO - PyTorch version 2.2.0+cu121 Found. 2024-02-21 23:07:35,509 - modelscope - INFO - Loading ast index from C:\Users\Jax.cache\modelscope\ast_indexer 2024-02-21 23:07:35,662 - modelscope - INFO - No valid ast index found from C:\Users\Jax.cache\modelscope\ast_indexer, generating ast index from prebuilt! 2024-02-21 23:07:35,774 - modelscope - INFO - Loading done! Current index file version is 1.12.0, with md5 5e0ee76b2102930e2aade1e27c42075b and a total number of 964 components indexed C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead. torch.utils._pytree._register_pytree_node( C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead. torch.utils._pytree._register_pytree_node( 2024-02-21 23:07:37,564 - modelscope - WARNING - Using the master branch is fragile, please use it with caution! 2024-02-21 23:07:37,565 - modelscope - INFO - Use user-specified model revision: master 2024-02-21 23:07:38,296 - modelscope - WARNING - Download interval is too small, use local cache Traceback (most recent call last): File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 247, in main() File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 241, in main model, tokenizer = _load_model_tokenizer(args) File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 55, in _load_model_tokenizer model = AutoModelForCausalLM.from_pretrained( File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 111, in from_pretrained module_obj = module_class.from_pretrained(model_dir, model_args, File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\models\auto\auto_factory.py", line 511, in from_pretrained return model_class.from_pretrained( File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 74, in from_pretrained return ori_from_pretrained(cls, model_dir, model_args, **kwargs) File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\modeling_utils.py", line 2650, in from_pretrained raise EnvironmentError( OSError: Error no file named pytorch_model.bin, tf_model.h5, model.ckpt.index or flax_model.msgpack found in directory C:\Users\Jax.cache\modelscope\hub\qwen\Qwen-VL-Chat. (39) PS H:\Project\AI\Qwen-VL> python .\web_demo_mm.py 2024-02-21 23:09:31,004 - modelscope - INFO - PyTorch version 2.2.0+cu121 Found. 2024-02-21 23:09:31,006 - modelscope - INFO - Loading ast index from C:\Users\Jax.cache\modelscope\ast_indexer 2024-02-21 23:09:31,006 - modelscope - INFO - No valid ast index found from C:\Users\Jax.cache\modelscope\ast_indexer, generating ast index from prebuilt! 2024-02-21 23:09:31,118 - modelscope - INFO - Loading done! Current index file version is 1.12.0, with md5 5e0ee76b2102930e2aade1e27c42075b and a total number of 964 components indexed C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead. torch.utils._pytree._register_pytree_node( C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead. torch.utils._pytree._register_pytree_node( 2024-02-21 23:09:32,828 - modelscope - WARNING - Using the master branch is fragile, please use it with caution! 2024-02-21 23:09:32,829 - modelscope - INFO - Use user-specified model revision: master Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.16k/1.16k [00:00<00:00, 296kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.13k/1.13k [00:00<00:00, 289kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2.04k/2.04k [00:00<00:00, 691kB/s] Downloading: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 485k/485k [00:00<00:00, 1.76MB/s] Downloading: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 233k/233k [00:00<00:00, 1.44MB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2.10k/2.10k [00:00<00:00, 717kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 5.96k/5.96k [00:00<00:00, 434kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 6.83k/6.83k [00:00<00:00, 280kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 6.03k/6.03k [00:00<00:00, 466kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 5.26k/5.26k [00:00<00:00, 604kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 7.02k/7.02k [00:00<00:00, 481kB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 221/221 [00:00<00:00, 55.1kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 6.74k/6.74k [00:00<00:00, 286kB/s] Downloading: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 107k/107k [00:00<00:00, 1.18MB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 43.6k/43.6k [00:00<00:00, 723kB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2.44M/2.44M [00:01<00:00, 2.16MB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 14.5k/14.5k [00:00<00:00, 463kB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 92.4k/92.4k [00:00<00:00, 1.49MB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 24.7k/24.7k [00:00<00:00, 810kB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 10.0M/10.0M [00:04<00:00, 2.17MB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 21.4k/21.4k [00:00<00:00, 705kB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 173/173 [00:00<00:00, 42.8kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 14.2k/14.2k [00:00<00:00, 470kB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 8.31k/8.31k [00:00<00:00, 2.12MB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 10.9k/10.9k [00:00<00:00, 2.78MB/s] 2024-02-21 23:09:52,505 - modelscope - WARNING - Download interval is too small, use local cache Traceback (most recent call last): File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 247, in main() File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 241, in main model, tokenizer = _load_model_tokenizer(args) File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 55, in _load_model_tokenizer model = AutoModelForCausalLM.from_pretrained( File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 111, in from_pretrained module_obj = module_class.from_pretrained(model_dir, model_args, File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\models\auto\auto_factory.py", line 511, in from_pretrained return model_class.from_pretrained( File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 74, in from_pretrained return ori_from_pretrained(cls, model_dir, model_args, **kwargs) File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\modeling_utils.py", line 2650, in from_pretrained raise EnvironmentError( OSError: Error no file named pytorch_model.bin, tf_model.h5, model.ckpt.index or flax_model.msgpack found in directory C:\Users\Jax.cache\modelscope\hub\qwen\Qwen-VL-Chat. (39) PS H:\Project\AI\Qwen-VL> python .\web_demo_mm.py 2024-02-21 23:12:19,981 - modelscope - INFO - PyTorch version 2.2.0+cu121 Found. 2024-02-21 23:12:19,982 - modelscope - INFO - Loading ast index from C:\Users\Jax.cache\modelscope\ast_indexer 2024-02-21 23:12:20,080 - modelscope - INFO - Loading done! Current index file version is 1.12.0, with md5 5e0ee76b2102930e2aade1e27c42075b and a total number of 964 components indexed C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead. torch.utils._pytree._register_pytree_node( C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead. torch.utils._pytree._register_pytree_node( urllib3.exceptions.ProtocolError: ('Connection aborted.', ConnectionAbortedError(10053, '你的主机中的软件中止了一个已建立的连接。', None, 10053, None))

The above exception was the direct cause of the following exception:

Traceback (most recent call last): File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\adapters.py", line 486, in send resp = conn.urlopen( File "C:\Users\Jax.conda\envs\39\lib\site-packages\urllib3\connectionpool.py", line 877, in urlopen return self.urlopen( File "C:\Users\Jax.conda\envs\39\lib\site-packages\urllib3\connectionpool.py", line 877, in urlopen return self.urlopen( File "C:\Users\Jax.conda\envs\39\lib\site-packages\urllib3\connectionpool.py", line 847, in urlopen retries = retries.increment( File "C:\Users\Jax.conda\envs\39\lib\site-packages\urllib3\util\retry.py", line 515, in increment raise MaxRetryError(_pool, url, reason) from reason # type: ignore[arg-type] urllib3.exceptions.MaxRetryError: HTTPSConnectionPool(host='www.modelscope.cn', port=443): Max retries exceeded with url: /api/v1/models/qwen/Qwen-VL-Chat/revisions (Caused by ProtocolError('Connection aborted.', ConnectionAbortedError(10053, '你的主机中的软件中止了一个已建 立的连接。', None, 10053, None)))

During handling of the above exception, another exception occurred:

Traceback (most recent call last): File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 247, in main() File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 241, in main model, tokenizer = _load_model_tokenizer(args) File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 46, in _load_model_tokenizer tokenizer = AutoTokenizer.from_pretrained( File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 103, in from_pretrained model_dir = snapshot_download( File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\hub\snapshot_download.py", line 117, in snapshot_download revision_detail = _api.get_valid_revision_detail( File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\hub\api.py", line 494, in get_valid_revision_detail all_branches_detail, all_tags_detail = self.get_model_branches_and_tags_details( File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\hub\api.py", line 572, in get_model_branches_and_tags_details r = self.session.get(path, cookies=cookies, File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\sessions.py", line 602, in get return self.request("GET", url, kwargs) File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\sessions.py", line 589, in request resp = self.send(prep, send_kwargs) File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\sessions.py", line 703, in send r = adapter.send(request, kwargs) File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\adapters.py", line 519, in send raise ConnectionError(e, request=request) requests.exceptions.ConnectionError: HTTPSConnectionPool(host='www.modelscope.cn', port=443): Max retries exceeded with url: /api/v1/models/qwen/Qwen-VL-Chat/revisions (Caused by ProtocolError('Connection aborted.', ConnectionAbortedError(10053, '你的主机中的软件中止了一个已立的连接。', None, 10053, None))) (39) PS H:\Project\AI\Qwen-VL> python .\web_demo_mm.py 2024-02-21 23:13:05,437 - modelscope - INFO - PyTorch version 2.2.0+cu121 Found. 2024-02-21 23:13:05,438 - modelscope - INFO - Loading ast index from C:\Users\Jax.cache\modelscope\ast_indexer 2024-02-21 23:13:05,536 - modelscope - INFO - Loading done! Current index file version is 1.12.0, with md5 5e0ee76b2102930e2aade1e27c42075b and a total number of 964 components indexed C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead. torch.utils._pytree._register_pytree_node( C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead. torch.utils._pytree._register_pytree_node( 2024-02-21 23:13:07,278 - modelscope - WARNING - Using the master branch is fragile, please use it with caution! 2024-02-21 23:13:07,278 - modelscope - INFO - Use user-specified model revision: master 2024-02-21 23:13:08,045 - modelscope - WARNING - Download interval is too small, use local cache Traceback (most recent call last): File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 247, in main() File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 241, in main model, tokenizer = _load_model_tokenizer(args) File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 55, in _load_model_tokenizer model = AutoModelForCausalLM.from_pretrained( File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 111, in from_pretrained module_obj = module_class.from_pretrained(model_dir, model_args, File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\models\auto\auto_factory.py", line 511, in from_pretrained return model_class.from_pretrained( File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 74, in from_pretrained return ori_from_pretrained(cls, model_dir, model_args, kwargs) File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\modeling_utils.py", line 2650, in from_pretrained raise EnvironmentError( OSError: Error no file named pytorch_model.bin, tf_model.h5, model.ckpt.index or flax_model.msgpack found in directory C:\Users\Jax.cache\modelscope\hub\qwen\Qwen-VL-Chat.

GuiQuQu commented 7 months ago

你这是在huggingface上下载模型报错了,因为huggingface被墙了,建议自己开梯子手动把模型下载下来,然后加载local path

zwfcrazy commented 7 months ago

这个不是huggingface。web_demo默认用的是modelscope,我也遇到了楼主的问题。Download interval is too small 似乎是modelscope的一个问题,在他们的issue里能找到,目前还没解决,但是似乎降低modelscope的版本能解决这个问题。

另外就是,挂个代理,换成huggingface,也能解决这个问题。

你这是在huggingface上下载模型报错了,因为huggingface被墙了,建议自己开梯子手动把模型下载下来,然后加载local path

LeslieWongCV commented 6 months ago

这个不是huggingface。web_demo默认用的是modelscope,我也遇到了楼主的问题。Download interval is too small 似乎是modelscope的一个问题,在他们的issue里能找到,目前还没解决,但是似乎降低modelscope的版本能解决这个问题。

另外就是,挂个代理,换成huggingface,也能解决这个问题。

你这是在huggingface上下载模型报错了,因为huggingface被墙了,建议自己开梯子手动把模型下载下来,然后加载local path

换成hf之后,你成功infer了嘛

zwfcrazy commented 6 months ago

这个不是huggingface。web_demo默认用的是modelscope,我也遇到了楼主的问题。Download interval is too small 似乎是modelscope的一个问题,在他们的issue里能找到,目前还没解决,但是似乎降低modelscope的版本能解决这个问题。 另外就是,挂个代理,换成huggingface,也能解决这个问题。

你这是在huggingface上下载模型报错了,因为huggingface被墙了,建议自己开梯子手动把模型下载下来,然后加载local path

换成hf之后,你成功infer了嘛

可以infer的