-
我尝试一下跑了aishell中的paraformer, 按照run.sh中的步骤进行训练,测试结果为:greedy_search: cer = 6.03 %, beam_search: cer=5.84%, 和README中的结果差距较大,请问README中的结果是否是这套代码跑出来的结果。另外,我发现直接使用这套代码推理会有问题,更改了部分代码。具体更改在:paraformer.py的cal…
-
下面是用自己的数据集对paraformer-large pytorch模型、onnx fp32模型、onnx int8量化模型的wer测试效果。
![图片](https://github.com/alibaba-damo-academy/FunASR/assets/66060016/df4e7ebc-78d4-477e-8c65-08be4a116970)
从图中可以看到,onnx模型的精…
-
## 🐛 Bug
### To Reproduce
Steps to reproduce the behavior (**always include the command you ran**):
1. Run cmd 'finetune.sh'
3. See error
![image](https://github.com/alibaba-damo-acad…
-
大佬,长时间运行程序后,运行内存持续增长还不释放,内存泄漏严重。
-
跑aishell的paraformer,第七步中最后一小步不输出,后发现其没有attention rescore,想问问paraformer这套代码本身就没有这个模块吧,原论文应该是没有这个模块的。
-
OS: centos7.9
Python/C++ Version:python3.8 gcc8.2
Package Version:funasr-onnx==0.2.3 pytorch==1.13.1、modelscope==1.6.1、funasr==0.5.8、torchaudio==0.13.1
Model:speech_paraformer-large-contextual_asr…
-
## 🐛 Bug
### To Reproduce
代码如下:
pip install -U modelscope>=1.11.1
pip install -U funasr>=1.0.2
pip install -U rotary_embedding_torch
pip install ffmpeg-python
from funasr import AutoM…
-
运行代码:
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
inference_pipeline = pipeline(
task=Tasks.auto_speech_recognition,
model='/home/wjw/FunASR-ma…
-
### 相关pr 提到的
- https://github.com/wenet-e2e/wenet/issues/2142#issuecomment-1823782110
- https://github.com/wenet-e2e/wenet/issues/2142
- https://github.com/wenet-e2e/wenet/pull/2159
### ref:
…
Mddct updated
9 months ago
-
1,win 10 系统
2,https://modelscope.cn/models/damo/funasr-runtime-win-cpu-x64/summary
3,Git Bash在项目目录启动服务端:./funasr-wss-server.exe --vad-dir D:/funasr-runtime-resources/models/speech_fsmn_vad_zh-cn-1…