-
**the code I export the onnx model in pytorch is as follow:**
offset = 0
if args['left_chunks'] > 0: # 16/4
required_cache_size = args['chunk_size'] * args['left_chunks']
…
lzhin updated
2 years ago
-
Description:
I updated NeMO to 1.23.0, and trying to use pretrained `EncDecCTCModel.transcribe`.
In previous version I used to input audio tensors loaded using torchaudio. But now it asks for `paths…
-
flash attn calculates: (softmax(Q @ K^T * softmax_scale) @ V), but RelPositionMultiHeadedAttention replaces Q @ K^T with (Q + pos_bias_u) @ K^T + (Q + pos_bias_v) @ P^T.
So now, how can I use flash …
-
做项目遇到并发报错,跑到FunAsr Demo里也去执行了下,发现了同样的错误,如下:
OS: [e.g. linux] ubuntu20.04 和 Macbook都测试了
Python Version:py37-torch1.13.1
Package Version:modelscope 1.4.1 funasr 0.3.1
Model:damo/speech_paraforme…
-
你好,请问在Unified Conformer ASR模型中的attention decoder解码时( https://github.com/wenet-e2e/wenet/tree/main/examples/aishell/s0#unified-conformer-result ), 如果chunk_size=16,
是不是只是encoder在编码的时候是做chunk-based atte…
-
最近想使用wenet架构进行小语种的训练。
看了一下训练代码,数据处理部分、训练部分的代码,是我这辈子见过最垃圾的代码,冗余、复杂。
还有大量代码是直接扒的torch官方的代码,直接放进wenet里面。
原因是什么?恶心用户?
看到wenet更新频率是很高的,也知道开发者是真正想把wenet做起来的。
但是目前的做法,简直就是闭门造车。
不支持huggingface,modelscop…
-
## Frontend Dependencies
- [x] Share GET for datasets
## Backend
- [ ] #87
- [ ] Create API to get metadata to fill model card - this will be workflow agnostic. Will only take the userId and the task…
-
感觉生成的语音没有ChatTTS的开源小模型流畅,是架构的原因还是数据质量?
ChatTTS开源的小模型好像训练数据也少一些,但是已经“够用”;fish-speech这边,感觉在流畅性、更“真实”方面还欠缺不少
-
版本信息:
funasr 0.7.4
torch 1.11.0+cu113
modelscope 1.7.1
错误信息:
CRITICAL: 08-17 03:17:59: paraformer_large_long_audio.py:152 * 139792295642880 Trace…
-
统计 开源数据 和 爬虫源, 不断更新中... 欢迎追加编辑