chenkui164 / FastASR

这是一个用C++实现ASR推理的项目,它依赖很少,安装也很简单,推理速度很快,在树莓派4B等ARM平台也可以流畅的运行。 支持的模型是由Google的Transformer模型中优化而来,数据集是开源wenetspeech(10000+小时)或阿里私有数据集(60000+小时), 所以识别效果也很好,可以媲美许多商用的ASR软件。
Apache License 2.0
481 stars 74 forks source link

paddlespeech asr -d #10

Closed jkluo closed 2 years ago

jkluo commented 2 years ago

大佬,官方也出了 paddlespeech asr --input xx.job -d 批量模式,测试了一下 fastASR 和 paddlespeech 批量模式效率相差不大。

chenkui164 commented 2 years ago

是的,因为paddlespeech是基于paddlepaddle构建的,如果计算机使用intel的芯片它会用MKL库加速,但是你使用的ARM芯片,所以底层应该也是Openblas,整个推理过程中最耗时的就是矩阵运算,其它的优化仅仅是锦上添花,我试图在优化过一些内容,但是仅仅提升了100ms的时间,所以我也没有什么好的办法。 @jkluo

jkluo commented 2 years ago

是的,因为paddlespeech是基于paddlepaddle构建的,如果计算机使用intel的芯片它会用MKL库加速,但是你使用的ARM芯片,所以底层应该也是Openblas,整个推理过程中最耗时的就是矩阵运算,其它的优化仅仅是锦上添花,我试图在优化过一些内容,但是仅仅提升了100ms的时间,所以我也没有什么好的办法。 @jkluo

确实,跟芯片关系很大。非常感谢大佬抽时间解答。