Closed mefengl closed 1 year ago
Update the OpenAI model version from gpt-3.5-turbo to gpt-3.5-turbo-16k in the README.md and text_translation.py files.
这个更改的原因是,目的既然是翻译一本书,那么自然翻译的越快越好,现在既然16k的模型已经开放了,那就直接使用好了,上下文是原来的 4 倍,也就意味着速度是原来的 4 倍,好处似乎只有上下文变成了 4 倍,可能获得更好的翻译结果吧,速度是不会变的
效果一般,先关闭了
Update the OpenAI model version from gpt-3.5-turbo to gpt-3.5-turbo-16k in the README.md and text_translation.py files.
这个更改的原因是,目的既然是翻译一本书,那么自然翻译的越快越好,现在既然16k的模型已经开放了,那就直接使用好了,上下文是原来的 4 倍,
也就意味着速度是原来的 4 倍,好处似乎只有上下文变成了 4 倍,可能获得更好的翻译结果吧,速度是不会变的