Open loks666 opened 7 months ago
你这是在huggingface上下载模型报错了,因为huggingface被墙了,建议自己开梯子手动把模型下载下来,然后加载local path
这个不是huggingface。web_demo默认用的是modelscope,我也遇到了楼主的问题。Download interval is too small 似乎是modelscope的一个问题,在他们的issue里能找到,目前还没解决,但是似乎降低modelscope的版本能解决这个问题。
另外就是,挂个代理,换成huggingface,也能解决这个问题。
你这是在huggingface上下载模型报错了,因为huggingface被墙了,建议自己开梯子手动把模型下载下来,然后加载local path
这个不是huggingface。web_demo默认用的是modelscope,我也遇到了楼主的问题。Download interval is too small 似乎是modelscope的一个问题,在他们的issue里能找到,目前还没解决,但是似乎降低modelscope的版本能解决这个问题。
另外就是,挂个代理,换成huggingface,也能解决这个问题。
你这是在huggingface上下载模型报错了,因为huggingface被墙了,建议自己开梯子手动把模型下载下来,然后加载local path
换成hf之后,你成功infer了嘛
这个不是huggingface。web_demo默认用的是modelscope,我也遇到了楼主的问题。Download interval is too small 似乎是modelscope的一个问题,在他们的issue里能找到,目前还没解决,但是似乎降低modelscope的版本能解决这个问题。 另外就是,挂个代理,换成huggingface,也能解决这个问题。
你这是在huggingface上下载模型报错了,因为huggingface被墙了,建议自己开梯子手动把模型下载下来,然后加载local path
换成hf之后,你成功infer了嘛
可以infer的
是否已有关于该错误的issue或讨论? | Is there an existing issue / discussion for this?
该问题是否在FAQ中有解答? | Is there an existing answer for this in FAQ?
当前行为 | Current Behavior
C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead. torch.utils._pytree._register_pytree_node( 2024-02-21 23:09:32,828 - modelscope - WARNING - Using the master branch is fragile, please use it with caution! 2024-02-21 23:09:32,829 - modelscope - INFO - Use user-specified model revision: master Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.16k/1.16k [00:00<00:00, 296kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.13k/1.13k [00:00<00:00, 289kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2.04k/2.04k [00:00<00:00, 691kB/s] Downloading: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 485k/485k [00:00<00:00, 1.76MB/s] Downloading: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 233k/233k [00:00<00:00, 1.44MB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2.10k/2.10k [00:00<00:00, 717kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 5.96k/5.96k [00:00<00:00, 434kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 6.83k/6.83k [00:00<00:00, 280kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 6.03k/6.03k [00:00<00:00, 466kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 5.26k/5.26k [00:00<00:00, 604kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 7.02k/7.02k [00:00<00:00, 481kB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 221/221 [00:00<00:00, 55.1kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 6.74k/6.74k [00:00<00:00, 286kB/s] Downloading: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 107k/107k [00:00<00:00, 1.18MB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 43.6k/43.6k [00:00<00:00, 723kB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2.44M/2.44M [00:01<00:00, 2.16MB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 14.5k/14.5k [00:00<00:00, 463kB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 92.4k/92.4k [00:00<00:00, 1.49MB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 24.7k/24.7k [00:00<00:00, 810kB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 10.0M/10.0M [00:04<00:00, 2.17MB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 21.4k/21.4k [00:00<00:00, 705kB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 173/173 [00:00<00:00, 42.8kB/s] Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 14.2k/14.2k [00:00<00:00, 470kB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 8.31k/8.31k [00:00<00:00, 2.12MB/s] Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 10.9k/10.9k [00:00<00:00, 2.78MB/s] 2024-02-21 23:09:52,505 - modelscope - WARNING - Download interval is too small, use local cache Traceback (most recent call last): File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 247, in
main()
File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 241, in main
model, tokenizer = _load_model_tokenizer(args)
File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 55, in _load_model_tokenizer
model = AutoModelForCausalLM.from_pretrained(
File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 111, in from_pretrained
module_obj = module_class.from_pretrained(model_dir, model_args,
File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\models\auto\auto_factory.py", line 511, in from_pretrained
return model_class.from_pretrained(
File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 74, in from_pretrained
return ori_from_pretrained(cls, model_dir, model_args, **kwargs)
File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\modeling_utils.py", line 2650, in from_pretrained
raise EnvironmentError(
OSError: Error no file named pytorch_model.bin, tf_model.h5, model.ckpt.index or flax_model.msgpack found in directory C:\Users\Jax.cache\modelscope\hub\qwen\Qwen-VL-Chat.
(39) PS H:\Project\AI\Qwen-VL> python .\web_demo_mm.py
2024-02-21 23:12:19,981 - modelscope - INFO - PyTorch version 2.2.0+cu121 Found.
2024-02-21 23:12:19,982 - modelscope - INFO - Loading ast index from C:\Users\Jax.cache\modelscope\ast_indexer
2024-02-21 23:12:20,080 - modelscope - INFO - Loading done! Current index file version is 1.12.0, with md5 5e0ee76b2102930e2aade1e27c42075b and a total number of 964 components indexed
C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead.
torch.utils._pytree._register_pytree_node(
C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead.
torch.utils._pytree._register_pytree_node(
urllib3.exceptions.ProtocolError: ('Connection aborted.', ConnectionAbortedError(10053, '你的主机中的软件中止了一个已建立的连接。', None, 10053, None))
The above exception was the direct cause of the following exception:
Traceback (most recent call last): File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\adapters.py", line 486, in send resp = conn.urlopen( File "C:\Users\Jax.conda\envs\39\lib\site-packages\urllib3\connectionpool.py", line 877, in urlopen return self.urlopen( File "C:\Users\Jax.conda\envs\39\lib\site-packages\urllib3\connectionpool.py", line 877, in urlopen return self.urlopen( File "C:\Users\Jax.conda\envs\39\lib\site-packages\urllib3\connectionpool.py", line 847, in urlopen retries = retries.increment( File "C:\Users\Jax.conda\envs\39\lib\site-packages\urllib3\util\retry.py", line 515, in increment raise MaxRetryError(_pool, url, reason) from reason # type: ignore[arg-type] urllib3.exceptions.MaxRetryError: HTTPSConnectionPool(host='www.modelscope.cn', port=443): Max retries exceeded with url: /api/v1/models/qwen/Qwen-VL-Chat/revisions (Caused by ProtocolError('Connection aborted.', ConnectionAbortedError(10053, '你的主机中的软件中止了一个已建 立的连接。', None, 10053, None)))
During handling of the above exception, another exception occurred:
Traceback (most recent call last): File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 247, in
main()
File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 241, in main
model, tokenizer = _load_model_tokenizer(args)
File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 46, in _load_model_tokenizer
tokenizer = AutoTokenizer.from_pretrained(
File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 103, in from_pretrained
model_dir = snapshot_download(
File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\hub\snapshot_download.py", line 117, in snapshot_download
revision_detail = _api.get_valid_revision_detail(
File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\hub\api.py", line 494, in get_valid_revision_detail
all_branches_detail, all_tags_detail = self.get_model_branches_and_tags_details(
File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\hub\api.py", line 572, in get_model_branches_and_tags_details
r = self.session.get(path, cookies=cookies,
File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\sessions.py", line 602, in get
return self.request("GET", url, kwargs)
File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\sessions.py", line 589, in request
resp = self.send(prep, send_kwargs)
File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\sessions.py", line 703, in send
r = adapter.send(request, kwargs)
File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\adapters.py", line 519, in send
raise ConnectionError(e, request=request)
requests.exceptions.ConnectionError: HTTPSConnectionPool(host='www.modelscope.cn', port=443): Max retries exceeded with url: /api/v1/models/qwen/Qwen-VL-Chat/revisions (Caused by ProtocolError('Connection aborted.', ConnectionAbortedError(10053, '你的主机中的软件中止了一个已立的连接。', None, 10053, None)))
(39) PS H:\Project\AI\Qwen-VL> python .\web_demo_mm.py
2024-02-21 23:13:05,437 - modelscope - INFO - PyTorch version 2.2.0+cu121 Found.
2024-02-21 23:13:05,438 - modelscope - INFO - Loading ast index from C:\Users\Jax.cache\modelscope\ast_indexer
2024-02-21 23:13:05,536 - modelscope - INFO - Loading done! Current index file version is 1.12.0, with md5 5e0ee76b2102930e2aade1e27c42075b and a total number of 964 components indexed
C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead.
torch.utils._pytree._register_pytree_node(
C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead.
torch.utils._pytree._register_pytree_node(
2024-02-21 23:13:07,278 - modelscope - WARNING - Using the master branch is fragile, please use it with caution!
2024-02-21 23:13:07,278 - modelscope - INFO - Use user-specified model revision: master
2024-02-21 23:13:08,045 - modelscope - WARNING - Download interval is too small, use local cache
Traceback (most recent call last):
File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 247, in
main()
File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 241, in main
model, tokenizer = _load_model_tokenizer(args)
File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 55, in _load_model_tokenizer
model = AutoModelForCausalLM.from_pretrained(
File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 111, in from_pretrained
module_obj = module_class.from_pretrained(model_dir, model_args,
File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\models\auto\auto_factory.py", line 511, in from_pretrained
return model_class.from_pretrained(
File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 74, in from_pretrained
return ori_from_pretrained(cls, model_dir, model_args, kwargs)
File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\modeling_utils.py", line 2650, in from_pretrained
raise EnvironmentError(
OSError: Error no file named pytorch_model.bin, tf_model.h5, model.ckpt.index or flax_model.msgpack found in directory C:\Users\Jax.cache\modelscope\hub\qwen\Qwen-VL-Chat.
(39) PS H:\Project\AI\Qwen-VL>
期望行为 | Expected Behavior
我期望自己下包能别这么多幺蛾子!!! 给我个百度下载的链接都行啊!!!!!!!!!!!
复现方法 | Steps To Reproduce
首先你们的markdown没有任何本地部署的教程,我是根据各种帖子自己实践的,首先安装这个三个依赖,requirements.txt,requirements_openai_api.txt,requirements_web_demo.txt,然后安装pytorch,官网装的pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121,然后执行python .\web_demo_mm.py
运行环境 | Environment
备注 | Anything else?
(39) PS H:\Project\AI\Qwen-VL> python .\web_demo_mm.py 2024-02-21 23:07:35,508 - modelscope - INFO - PyTorch version 2.2.0+cu121 Found. 2024-02-21 23:07:35,509 - modelscope - INFO - Loading ast index from C:\Users\Jax.cache\modelscope\ast_indexer 2024-02-21 23:07:35,662 - modelscope - INFO - No valid ast index found from C:\Users\Jax.cache\modelscope\ast_indexer, generating ast index from prebuilt! 2024-02-21 23:07:35,774 - modelscope - INFO - Loading done! Current index file version is 1.12.0, with md5 5e0ee76b2102930e2aade1e27c42075b and a total number of 964 components indexed C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead. torch.utils._pytree._register_pytree_node( C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead. torch.utils._pytree._register_pytree_node( 2024-02-21 23:07:37,564 - modelscope - WARNING - Using the master branch is fragile, please use it with caution! 2024-02-21 23:07:37,565 - modelscope - INFO - Use user-specified model revision: master 2024-02-21 23:07:38,296 - modelscope - WARNING - Download interval is too small, use local cache Traceback (most recent call last): File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 247, in
main()
File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 241, in main
model, tokenizer = _load_model_tokenizer(args)
File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 55, in _load_model_tokenizer
model = AutoModelForCausalLM.from_pretrained(
File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 111, in from_pretrained
module_obj = module_class.from_pretrained(model_dir, model_args,
File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\models\auto\auto_factory.py", line 511, in from_pretrained
return model_class.from_pretrained(
File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 74, in from_pretrained
return ori_from_pretrained(cls, model_dir, model_args, **kwargs)
File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\modeling_utils.py", line 2650, in from_pretrained
raise EnvironmentError(
OSError: Error no file named pytorch_model.bin, tf_model.h5, model.ckpt.index or flax_model.msgpack found in directory C:\Users\Jax.cache\modelscope\hub\qwen\Qwen-VL-Chat.
(39) PS H:\Project\AI\Qwen-VL> python .\web_demo_mm.py
2024-02-21 23:09:31,004 - modelscope - INFO - PyTorch version 2.2.0+cu121 Found.
2024-02-21 23:09:31,006 - modelscope - INFO - Loading ast index from C:\Users\Jax.cache\modelscope\ast_indexer
2024-02-21 23:09:31,006 - modelscope - INFO - No valid ast index found from C:\Users\Jax.cache\modelscope\ast_indexer, generating ast index from prebuilt!
2024-02-21 23:09:31,118 - modelscope - INFO - Loading done! Current index file version is 1.12.0, with md5 5e0ee76b2102930e2aade1e27c42075b and a total number of 964 components indexed
C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead.
torch.utils._pytree._register_pytree_node(
C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead.
torch.utils._pytree._register_pytree_node(
2024-02-21 23:09:32,828 - modelscope - WARNING - Using the master branch is fragile, please use it with caution!
2024-02-21 23:09:32,829 - modelscope - INFO - Use user-specified model revision: master
Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.16k/1.16k [00:00<00:00, 296kB/s]
Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.13k/1.13k [00:00<00:00, 289kB/s]
Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2.04k/2.04k [00:00<00:00, 691kB/s]
Downloading: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 485k/485k [00:00<00:00, 1.76MB/s]
Downloading: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 233k/233k [00:00<00:00, 1.44MB/s]
Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2.10k/2.10k [00:00<00:00, 717kB/s]
Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 5.96k/5.96k [00:00<00:00, 434kB/s]
Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 6.83k/6.83k [00:00<00:00, 280kB/s]
Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 6.03k/6.03k [00:00<00:00, 466kB/s]
Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 5.26k/5.26k [00:00<00:00, 604kB/s]
Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 7.02k/7.02k [00:00<00:00, 481kB/s]
Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 221/221 [00:00<00:00, 55.1kB/s]
Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 6.74k/6.74k [00:00<00:00, 286kB/s]
Downloading: 100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 107k/107k [00:00<00:00, 1.18MB/s]
Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 43.6k/43.6k [00:00<00:00, 723kB/s]
Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 2.44M/2.44M [00:01<00:00, 2.16MB/s]
Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 14.5k/14.5k [00:00<00:00, 463kB/s]
Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 92.4k/92.4k [00:00<00:00, 1.49MB/s]
Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 24.7k/24.7k [00:00<00:00, 810kB/s]
Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 10.0M/10.0M [00:04<00:00, 2.17MB/s]
Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 21.4k/21.4k [00:00<00:00, 705kB/s]
Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 173/173 [00:00<00:00, 42.8kB/s]
Downloading: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 14.2k/14.2k [00:00<00:00, 470kB/s]
Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 8.31k/8.31k [00:00<00:00, 2.12MB/s]
Downloading: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 10.9k/10.9k [00:00<00:00, 2.78MB/s]
2024-02-21 23:09:52,505 - modelscope - WARNING - Download interval is too small, use local cache
Traceback (most recent call last):
File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 247, in
main()
File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 241, in main
model, tokenizer = _load_model_tokenizer(args)
File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 55, in _load_model_tokenizer
model = AutoModelForCausalLM.from_pretrained(
File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 111, in from_pretrained
module_obj = module_class.from_pretrained(model_dir, model_args,
File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\models\auto\auto_factory.py", line 511, in from_pretrained
return model_class.from_pretrained(
File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 74, in from_pretrained
return ori_from_pretrained(cls, model_dir, model_args, **kwargs)
File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\modeling_utils.py", line 2650, in from_pretrained
raise EnvironmentError(
OSError: Error no file named pytorch_model.bin, tf_model.h5, model.ckpt.index or flax_model.msgpack found in directory C:\Users\Jax.cache\modelscope\hub\qwen\Qwen-VL-Chat.
(39) PS H:\Project\AI\Qwen-VL> python .\web_demo_mm.py
2024-02-21 23:12:19,981 - modelscope - INFO - PyTorch version 2.2.0+cu121 Found.
2024-02-21 23:12:19,982 - modelscope - INFO - Loading ast index from C:\Users\Jax.cache\modelscope\ast_indexer
2024-02-21 23:12:20,080 - modelscope - INFO - Loading done! Current index file version is 1.12.0, with md5 5e0ee76b2102930e2aade1e27c42075b and a total number of 964 components indexed
C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead.
torch.utils._pytree._register_pytree_node(
C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead.
torch.utils._pytree._register_pytree_node(
urllib3.exceptions.ProtocolError: ('Connection aborted.', ConnectionAbortedError(10053, '你的主机中的软件中止了一个已建立的连接。', None, 10053, None))
The above exception was the direct cause of the following exception:
Traceback (most recent call last): File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\adapters.py", line 486, in send resp = conn.urlopen( File "C:\Users\Jax.conda\envs\39\lib\site-packages\urllib3\connectionpool.py", line 877, in urlopen return self.urlopen( File "C:\Users\Jax.conda\envs\39\lib\site-packages\urllib3\connectionpool.py", line 877, in urlopen return self.urlopen( File "C:\Users\Jax.conda\envs\39\lib\site-packages\urllib3\connectionpool.py", line 847, in urlopen retries = retries.increment( File "C:\Users\Jax.conda\envs\39\lib\site-packages\urllib3\util\retry.py", line 515, in increment raise MaxRetryError(_pool, url, reason) from reason # type: ignore[arg-type] urllib3.exceptions.MaxRetryError: HTTPSConnectionPool(host='www.modelscope.cn', port=443): Max retries exceeded with url: /api/v1/models/qwen/Qwen-VL-Chat/revisions (Caused by ProtocolError('Connection aborted.', ConnectionAbortedError(10053, '你的主机中的软件中止了一个已建 立的连接。', None, 10053, None)))
During handling of the above exception, another exception occurred:
Traceback (most recent call last): File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 247, in
main()
File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 241, in main
model, tokenizer = _load_model_tokenizer(args)
File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 46, in _load_model_tokenizer
tokenizer = AutoTokenizer.from_pretrained(
File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 103, in from_pretrained
model_dir = snapshot_download(
File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\hub\snapshot_download.py", line 117, in snapshot_download
revision_detail = _api.get_valid_revision_detail(
File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\hub\api.py", line 494, in get_valid_revision_detail
all_branches_detail, all_tags_detail = self.get_model_branches_and_tags_details(
File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\hub\api.py", line 572, in get_model_branches_and_tags_details
r = self.session.get(path, cookies=cookies,
File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\sessions.py", line 602, in get
return self.request("GET", url, kwargs)
File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\sessions.py", line 589, in request
resp = self.send(prep, send_kwargs)
File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\sessions.py", line 703, in send
r = adapter.send(request, kwargs)
File "C:\Users\Jax.conda\envs\39\lib\site-packages\requests\adapters.py", line 519, in send
raise ConnectionError(e, request=request)
requests.exceptions.ConnectionError: HTTPSConnectionPool(host='www.modelscope.cn', port=443): Max retries exceeded with url: /api/v1/models/qwen/Qwen-VL-Chat/revisions (Caused by ProtocolError('Connection aborted.', ConnectionAbortedError(10053, '你的主机中的软件中止了一个已立的连接。', None, 10053, None)))
(39) PS H:\Project\AI\Qwen-VL> python .\web_demo_mm.py
2024-02-21 23:13:05,437 - modelscope - INFO - PyTorch version 2.2.0+cu121 Found.
2024-02-21 23:13:05,438 - modelscope - INFO - Loading ast index from C:\Users\Jax.cache\modelscope\ast_indexer
2024-02-21 23:13:05,536 - modelscope - INFO - Loading done! Current index file version is 1.12.0, with md5 5e0ee76b2102930e2aade1e27c42075b and a total number of 964 components indexed
C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead.
torch.utils._pytree._register_pytree_node(
C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\utils\generic.py:260: UserWarning: torch.utils._pytree._register_pytree_node is deprecated. Please use torch.utils._pytree.register_pytree_node instead.
torch.utils._pytree._register_pytree_node(
2024-02-21 23:13:07,278 - modelscope - WARNING - Using the master branch is fragile, please use it with caution!
2024-02-21 23:13:07,278 - modelscope - INFO - Use user-specified model revision: master
2024-02-21 23:13:08,045 - modelscope - WARNING - Download interval is too small, use local cache
Traceback (most recent call last):
File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 247, in
main()
File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 241, in main
model, tokenizer = _load_model_tokenizer(args)
File "H:\Project\AI\Qwen-VL\web_demo_mm.py", line 55, in _load_model_tokenizer
model = AutoModelForCausalLM.from_pretrained(
File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 111, in from_pretrained
module_obj = module_class.from_pretrained(model_dir, model_args,
File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\models\auto\auto_factory.py", line 511, in from_pretrained
return model_class.from_pretrained(
File "C:\Users\Jax.conda\envs\39\lib\site-packages\modelscope\utils\hf_util.py", line 74, in from_pretrained
return ori_from_pretrained(cls, model_dir, model_args, kwargs)
File "C:\Users\Jax.conda\envs\39\lib\site-packages\transformers\modeling_utils.py", line 2650, in from_pretrained
raise EnvironmentError(
OSError: Error no file named pytorch_model.bin, tf_model.h5, model.ckpt.index or flax_model.msgpack found in directory C:\Users\Jax.cache\modelscope\hub\qwen\Qwen-VL-Chat.