issues
search
junxnone
/
aiwiki
AI Wiki
https://junxnone.github.io/aiwiki
18
stars
2
forks
source link
Hot LM Tuning LoRA
#406
Open
junxnone
opened
1 year ago
junxnone
commented
1 year ago
LoRA
LoRA -
Low-Rank Adaptation
是微软研究员引入的一项新技术,主要用于处理大模型微调的问题。
已有研究表明了过度参数化的模型其实是位于一个低的内在维度上,所以作者假设在模型适应过程中的权重变化也具有较低的“内在等级”
Arch
冻结预训练模型的权重
将
rank-decompostion matrices
添加到 Transformer 的每一层来训练
模型合并
LoRA + BigMdel
$W = W_0 + BA$
微调后由 $h=W_0x$ 变为 $h=Wx$
比较
Reference
paper 2021
LoRA: Low-Rank Adaptation of Large Language Models
[
Code - Microsoft
]
lora - Huggingface PEFT
使用 LoRA 进行 Stable Diffusion 的高效参数微调
LoRA
Low-Rank Adaptation
是微软研究员引入的一项新技术,主要用于处理大模型微调的问题。Arch
rank-decompostion matrices
添加到 Transformer 的每一层来训练模型合并
比较
Reference