Closed CanvaChen closed 1 year ago
上下文长度扩大到32K,是否直接修改参数就可以呢?是否会引发问题?
直接改就行,只要你算力顶得住就行。如果是>torch2.0话,应该会默认开启Flash-attention,还能省不少算力
上下文长度扩大到32K,是否直接修改参数就可以呢?是否会引发问题?