Closed mxiwiwn closed 1 week ago
请问在交叉注意力机制的地方出现错误,应该怎么解决?
检查下d_model是不是设置成512了,需要设置成768与GPT2的word token embeddings的hidden dimension一致
d_model
检查下d_model是不是设置成512了,需要设置成768与GPT2的word token embeddings的hidden dimension一 谢谢,已解决
请问在交叉注意力机制的地方出现错误,应该怎么解决?