Closed Syax19 closed 1 year ago
您好,我正在使用您的Taiwan-LLaMa-v1.0模型執行去識別化任務,目前正在比較網頁app輸出的結果和fastchat API gen_model_answer對於同樣的prompt的output差異。
因為現在的Hugging face Spaces上的demo更新成Taiwan-LLM v2.0,之前沒有記錄到Max new tokens, Temperature, Top-p (nucleus sampling), Top-k的預設值,是否能請您提供這些資訊呢?
謝謝您
原本 Taiwan Llama 的 Demo Space 還在
https://huggingface.co/spaces/yentinglin/Taiwan-LLaMa2
可以透過 Commit History 確認 Sample Parameters 的設定是什麼
Sample Parameters 在 9 天前有更動過
找到了! 謝謝您的幫助!
您好,我正在使用您的Taiwan-LLaMa-v1.0模型執行去識別化任務,目前正在比較網頁app輸出的結果和fastchat API gen_model_answer對於同樣的prompt的output差異。
因為現在的Hugging face Spaces上的demo更新成Taiwan-LLM v2.0,之前沒有記錄到Max new tokens, Temperature, Top-p (nucleus sampling), Top-k的預設值,是否能請您提供這些資訊呢?
謝謝您