chenkui164 / FastASR

这是一个用C++实现ASR推理的项目,它依赖很少,安装也很简单,推理速度很快,在树莓派4B等ARM平台也可以流畅的运行。 支持的模型是由Google的Transformer模型中优化而来,数据集是开源wenetspeech(10000+小时)或阿里私有数据集(60000+小时), 所以识别效果也很好,可以媲美许多商用的ASR软件。
Apache License 2.0
482 stars 74 forks source link

May I ask whether int8 model quantization and inference will be supported in the future? #36

Closed Alex-Songs closed 1 year ago

Alex-Songs commented 1 year ago

May I ask whether int8 model quantization (or int4) and inference will be supported in the future?

chenkui164 commented 1 year ago

将模型量化为int8,我一直想做的事情,只是目前搁置了。 image

1、目前看最理性的量化方法是使用量化感知训练的方法,只是我没有设备用于训练,所以一直搁置了。

2、现在进行矩阵计算的使用的是openblas,当有int8模型后,需要用xnnpack替换openblas,改动很大,基本相当于重写了。

个人感觉int8计算是趋势,因为armv8.2已经支持int8的指令集了。

Alex-Songs commented 1 year ago

@chenkui164 对的,目前openblas还不支持int8运算,期待大佬后续的工作。

cgisky1980 commented 1 year ago

可以试下众筹租一下训练设备