ymcui / Chinese-LLaMA-Alpaca-2

中文LLaMA-2 & Alpaca-2大模型二期项目 + 64K超长上下文模型 (Chinese LLaMA-2 & Alpaca-2 LLMs with 64K long context models)
Apache License 2.0
7.06k stars 578 forks source link

扩充词表后对新添加token初始化的方式 #538

Closed YoLo-MUC closed 6 months ago

YoLo-MUC commented 7 months ago

提交前必须检查以下项目

问题类型

其他问题

基础模型

Chinese-LLaMA-2 (7B/13B)

操作系统

Linux

详细描述问题

老师您好,请问对原32000的词表扩充后,对新添加的token在模型的embedding层和lm_head层初始化的方式是什么呢?

我看他人有做均值扩充、随机扩充和带噪均值扩充,但是不知道有什么选择技巧,想请教下老师的看法和咱们LLaMA2-Chinese所选择的方式,谢谢老师!

依赖情况(代码类问题务必提供)

# 请在此处粘贴依赖情况(请粘贴在本代码块里)

运行日志或截图

# 请在此处粘贴运行日志(请粘贴在本代码块里)
ymcui commented 7 months ago

均值初始化效果相对较好。

YoLo-MUC commented 7 months ago

均值初始化效果相对较好。

好的,谢谢老师