Open Nekofoxmiu opened 1 year ago
! pip --quiet install ctranslate2 transformers accelerate ! ct2-transformers-converter --low_cpu_mem_usage --model "clu-ling/whisper-large-v2-japanese-5k-steps" --output_dir "/content/finetuned"
--low_cpu_mem_usage 這個可以不用 不用的話accelerate不需要安裝
基本上像是這樣就是兩行的事 然後model_size的部分改成model路徑即可
我有訓練了一些特定模型的fine-tuned版本,想說能不能在模型載入時可以選擇本地端或網路來源的model