-
按照 [docker部署流程](https://alibaba-damo-academy.github.io/FunASR/en/funasr/quick_start_zh.html) 中的【实时语音听写服务部署】部分进行配置:
- 镜像拉取与容器启动:
``` shell
sudo docker pull \
registry.cn-hangzhou.aliyuncs.com/fun…
-
服务部署目前不支持 说话人识别模型
_Originally posted by @lyblsgo in https://github.com/modelscope/FunASR/issues/1780#issuecomment-2146419327_
-
按照https://github.com/alibaba-damo-academy/FunASR/blob/main/runtime/docs/SDK_advanced_guide_online_zh.md在同一台主机上部署实时语音识别的服务端和客户端,部署后第一次测试成功,客户端可以连接上服务端并返回识别结果。但是使用命令ps -x | grep funasr-wss-server-2pass …
-
# 1. 问题
【paraformer】onnx-gpu 模型,decoder部分耗时严重,现定位到是 fsmn_block 模块:
1. encoder 和 decoder 使用了相同的 fsmn_block模块,但是两者耗时相差约100倍(具体如下所示);
2. 两个 fsmn_block 模块只有输入数据不同,所以可能是什么原因导致耗时相差如此之大呢?
```
# encode…
-
环境安装:
```
python==3.8.3
torch==1.13.1+cu117
funasr==1.0.0
```
使用模型:
`[https://www.modelscope.cn/models/damo/speech_seaco_paraformer_large_asr_nat-zh-cn-16k-common-vocab8404-pytorch/summary](url…
-
同一个数据集,damo/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-online模型转onnx后的识别结果比原始模型的识别结果高,大约1%z左右,不知是什么原因
-
OS: linux
Python 3.10
Package: pytorch 1.13.1 、modelscope1.3.0 funasr 0.3.0
Model: auto-speech-recognition
Command:
inference_pipeline = pipeline(
task=Tasks.auto_speech_recognition,
…
-
hot-rules加了这个
回车 = \r\n
换行 = \r\n
原版里面可以执行回车、换行的指令
这个修改版没反应
另外说回车换行 会有错误提示:
[WinError 123] 文件名、目录名或卷标语法不正确。: '2024\\05\\assets\\(20240510-095332)gd7jq0il.mp3' -> '2024\…
qhgy updated
5 months ago
-
https://github.com/alibaba-damo-academy/FunASR/blob/5e7eb6f160c48861cbcd39825a0cb98f98538772/runtime/onnxruntime/src/vocab.cpp#L29-L44
我是用的paraformer-zh-streaming模型,代码中在YAML文件中读取token,但是config.yaml中并…
-
timestamp model,input soundfile will catch KeyError exception。
```python
paraformer_large_dir = 'damo/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch'
paraformer_large_model = pi…