Open WenjingBao opened 1 year ago
pip install torch4keras看看安装的是什么版本
你直接pip install bert4torch看看能不能装上
pip install torch4keras看看安装的是什么版本
torch4keras-0.0.7-py3-none-any.whl这个
你直接pip install bert4torch看看能不能装上
嗯,我想用这个包训moss,标准版的也可以吗?
你直接pip install bert4torch看看能不能装上
嗯,我想用这个包训moss,标准版的也可以吗?
标准版是昨天刚发的,也是最新的,你那里多大算力啊,训练moss
你直接pip install bert4torch看看能不能装上
嗯,我想用这个包训moss,标准版的也可以吗?
标准版是昨天刚发的,也是最新的,你那里多大算力啊,训练moss
抱歉,周末碰不到电脑,有一台8张V-100的机器,不知道训量化版够不够。。。 另外就是安装对cuda,cudnn,gcc的版本有要求吗?因为需要预先load这些模块
另外这个包理论上可以替代transformer对支持的模型进行微调对吧?我是在moss的微调上遇到无法解决的随机bug才想试着用这个包的
另外这个包理论上可以替代transformer对支持的模型进行微调对吧?我是在moss的微调上遇到无法解决的随机bug才想试着用这个包的
遇到啥问题了,单卡是没问题的的,多卡微调我这边还没测试的很充分,moss肯定要多卡,我抓紧调试看看
moss遇到的问题是这个:https://github.com/OpenLMLab/MOSS/issues/206 但是又不止是这个,moss 模型里面带的那5个.py会被transformer拉到cache里面用,但是经常在给后几张卡initialize的时候出现明明文件没问题,transformer却读不全的情况,导致的bug除了issue里面那个还会有
Attribution error: module 'transformers_modules.local.xxx.py' has no attribute 'xxx'
和
SyntexError: Unexpected EOF while parsing
诡异的是每次bug出的都不一样,而且不是100%出现,甚至同一环境和前置代码,第一遍跑run.sh有bug,第二遍就没了,第三遍又会换一个蹦出来
我自己怀疑是multi-threading读取冲突了,但是也不确定就是了
另外量化moss可以单卡,这个里面就有个例子:https://github.com/yangzhipeng1108/moss-finetune-and-moss-finetune-int8
好的,我这里参考下啊
提问时请尽可能提供如下信息:
基本信息
核心代码
输出信息
自我尝试
除了直接安装与clone后本地安装还试了ghproxy.com的版本,都报同样的错,也试过把requirements.txt里面bert4keras的版本后面的
.post3
去掉,也是一样的报错