-
期望转换后paraformer模型能够直接使用decoder_main进行解码,这样相当于带了语言模型进行解码。
-
在我的音频中老师的提问和学生的回答时间间隔为1秒左右, 我减少max_end_silence_time为500ms尝试精确定位句尾,但是没有效果,无法精确分离老师和学生的话,请问还可以尝试什么配置呢?
**vad_model模型配置如下:**
```
frontend: WavFrontendOnline
frontend_conf:
fs: 16000
window:…
-
尝试从本地加载模型,但每次都从ModelScope下载到.cache中。
即使我将.cache内的模型CP到指定路径,并尝试加载这个路径,它依然从.cache内加载,如果.cache内没有就还是会去拉取模型,而不是从本地加载。
模型地址:https://www.modelscope.cn/models/damo/speech_paraformer-large-contextual_asr_na…
-
## 🐛 Bug
### To Reproduce
Steps to reproduce the behavior (**always include the command you ran**):
麻烦大佬有空时能解答解答,十分感谢。
基于/runtime/python/http/server.py的代码做了简单的修改,具体的代码会在下面贴出。
存在问题:识别多个离线音…
-
(llava) PS F:\speech-to-speech> python s2s_pipeline.py --recv_host 0.0.0.0 --send_host 0.0.0.0 --lm_model_name HuggingFaceTB/SmolLM-360M-Instruct --init_chat_role system --stt_compile_mode reduce-over…
-
python版本的输出
```
from funasr import AutoModel
model = AutoModel(model="iic/speech_seaco_paraformer_large_asr_nat-zh-cn-16k-common-vocab8404-pytorch",
model_revision="v2.0.4",
…
-
环境安装:
python==3.7.13
torch==1.11.0+cu113
funasr==1.0.15
modelscope==1.9.5
使用模型:
https://www.modelscope.cn/models/iic/speech_paraformer-large-contextual_asr_nat-zh-cn-16k-common-vocab8404/su…
-
Notice: In order to resolve issues more efficiently, please raise issue following the template.
(注意:为了更加高效率解决您遇到的问题,请按照模板提问,补充细节)
## ❓ Questions and Help
### Before asking:
1. search the iss…
-
无法进入推理界面
Traceback (most recent call last):
File "H:\Deepfacelab\Voice\fish-speech-main-9994780351\tools\webui.py", line 23, in
from tools.api import decode_vq_tokens, encode_reference
Fi…
-
启动之后报错NameError: name 'ClusterBackend' is not defined
Traceback (most recent call last):
File "C:\PyCharmProject\FunClip-main\funclip\launch.py", line 7, in
funasr_model = AutoModel(model=…