Tongjilibo / bert4torch

An elegent pytorch implement of transformers
https://bert4torch.readthedocs.io/
MIT License
1.23k stars 153 forks source link

安装时报错:Could not find a version that satisfies the requirement #133

Open WenjingBao opened 1 year ago

WenjingBao commented 1 year ago

提问时请尽可能提供如下信息:

基本信息

核心代码

pip install git+https://github.com/Tongjilibo/bert4torch

git clone https://github.com/Tongjilibo/bert4torch.git
pip install ./bert4torch/

输出信息

Defaulting to user installation because normal site-packages is not writeable
Looking in indexes: http://mirrors.tencentyun.com/pypi/simple
Processing ./bert4torch
Collecting torch>1.6
  Downloading http://mirrors.tencentyun.com/pypi/packages/96/28/026dc037f177d53558477931677b120f649dd5a0dcdc4b44dc38b3d75711/torch-2.0.1-cp38-cp38-manylinux1_x86_64.whl (619.9 MB)
     |████████████████████████████████| 619.9 MB 608 kB/s 
ERROR: Could not find a version that satisfies the requirement torch4keras==0.0.7.post3 (from bert4torch==0.2.8) (from versions: 0.0.1, 0.0.2, 0.0.3, 0.0.3.post2, 0.0.4, 0.0.5, 0.0.6, 0.0.7)
ERROR: No matching distribution found for torch4keras==0.0.7.post3 (from bert4torch==0.2.8)

自我尝试

除了直接安装与clone后本地安装还试了ghproxy.com的版本,都报同样的错,也试过把requirements.txt里面bert4keras的版本后面的

.post3

去掉,也是一样的报错

Tongjilibo commented 1 year ago

pip install torch4keras看看安装的是什么版本

Tongjilibo commented 1 year ago

你直接pip install bert4torch看看能不能装上

WenjingBao commented 1 year ago

pip install torch4keras看看安装的是什么版本

torch4keras-0.0.7-py3-none-any.whl这个

WenjingBao commented 1 year ago

你直接pip install bert4torch看看能不能装上

嗯,我想用这个包训moss,标准版的也可以吗?

Tongjilibo commented 1 year ago

你直接pip install bert4torch看看能不能装上

嗯,我想用这个包训moss,标准版的也可以吗?

标准版是昨天刚发的,也是最新的,你那里多大算力啊,训练moss

WenjingBao commented 1 year ago

你直接pip install bert4torch看看能不能装上

嗯,我想用这个包训moss,标准版的也可以吗?

标准版是昨天刚发的,也是最新的,你那里多大算力啊,训练moss

抱歉,周末碰不到电脑,有一台8张V-100的机器,不知道训量化版够不够。。。 另外就是安装对cuda,cudnn,gcc的版本有要求吗?因为需要预先load这些模块

WenjingBao commented 1 year ago

另外这个包理论上可以替代transformer对支持的模型进行微调对吧?我是在moss的微调上遇到无法解决的随机bug才想试着用这个包的

Tongjilibo commented 1 year ago

另外这个包理论上可以替代transformer对支持的模型进行微调对吧?我是在moss的微调上遇到无法解决的随机bug才想试着用这个包的

遇到啥问题了,单卡是没问题的的,多卡微调我这边还没测试的很充分,moss肯定要多卡,我抓紧调试看看

WenjingBao commented 1 year ago

moss遇到的问题是这个:https://github.com/OpenLMLab/MOSS/issues/206 但是又不止是这个,moss 模型里面带的那5个.py会被transformer拉到cache里面用,但是经常在给后几张卡initialize的时候出现明明文件没问题,transformer却读不全的情况,导致的bug除了issue里面那个还会有

Attribution error: module 'transformers_modules.local.xxx.py' has no attribute 'xxx'

SyntexError: Unexpected EOF while parsing

诡异的是每次bug出的都不一样,而且不是100%出现,甚至同一环境和前置代码,第一遍跑run.sh有bug,第二遍就没了,第三遍又会换一个蹦出来

我自己怀疑是multi-threading读取冲突了,但是也不确定就是了

另外量化moss可以单卡,这个里面就有个例子:https://github.com/yangzhipeng1108/moss-finetune-and-moss-finetune-int8

Tongjilibo commented 1 year ago

好的,我这里参考下啊