Closed YoLo-MUC closed 6 months ago
其他问题
Chinese-LLaMA-2 (7B/13B)
Linux
老师您好,请问对原32000的词表扩充后,对新添加的token在模型的embedding层和lm_head层初始化的方式是什么呢?
我看他人有做均值扩充、随机扩充和带噪均值扩充,但是不知道有什么选择技巧,想请教下老师的看法和咱们LLaMA2-Chinese所选择的方式,谢谢老师!
# 请在此处粘贴依赖情况(请粘贴在本代码块里)
# 请在此处粘贴运行日志(请粘贴在本代码块里)
均值初始化效果相对较好。
好的,谢谢老师
提交前必须检查以下项目
问题类型
其他问题
基础模型
Chinese-LLaMA-2 (7B/13B)
操作系统
Linux
详细描述问题
老师您好,请问对原32000的词表扩充后,对新添加的token在模型的embedding层和lm_head层初始化的方式是什么呢?
我看他人有做均值扩充、随机扩充和带噪均值扩充,但是不知道有什么选择技巧,想请教下老师的看法和咱们LLaMA2-Chinese所选择的方式,谢谢老师!
依赖情况(代码类问题务必提供)
运行日志或截图