Closed ryancurry-mz closed 1 month ago
@ryancurry-mz 你好,我这边测试了一下,使用的是项目中原本的代码,测试的音频是1分42秒的,使用GPU推理时间为1.5秒。使用CPU推理时间为7.6秒,推理时间是正常的,应该是你的设备问题。
启动server.py我这边不超过10秒
另外我重复推理请100次,无论是使用GPU还是CPU,内存都没有变化,并没有你说的内存不断增长,你要排除其他代码的影响。
@ryancurry-mz 你是林外修改了代码吧,你检查下是不是你添加哪些代码影响的
@ryancurry-mz 你是林外修改了代码吧,你检查下是不是你添加哪些代码影响的
我在原本server.py的基础上修改了几处地方,添加了说话人识别和逆文本正则化,不确定是否是这里的影响,我再检查下。感谢大佬回复!
# 说话人识别/分割
parser.add_argument("--spk_model_revision", type=str, default="v2.0.4", help="")
parser.add_argument(
"--spk_model",
type=str,
# default="cam++",
default="/soft/FunASR/model/speech_campplus_sv_zh-cn_16k-common/",
help="model from https://github.com/alibaba-damo-academy/FunASR?tab=readme-ov-file#model-zoo",
)
# 文本逆正则化
invnormalizer = InverseNormalizer(cache_dir="/soft/FunASR/model/fst_itn_zh/")
text = invnormalizer.normalize(rec_result["text"])
@ryancurry-mz 你好,我这边测试了一下,使用的是项目中原本的代码,测试的音频是1分42秒的,使用GPU推理时间为1.5秒。使用CPU推理时间为7.6秒,推理时间是正常的,应该是你的设备问题。
启动server.py我这边不超过10秒
另外我重复推理请100次,无论是使用GPU还是CPU,内存都没有变化,并没有你说的内存不断增长,你要排除其他代码的影响。
您好,我使用同样的代码(FunASR/runtime/python/http/server.py),代码中删除了ffmpeg把音频文件读成字节流,直接传的音频文件 async with aiofiles.open(audio_path, "wb") as out_file: content = await audio.read() await out_file.write(content) rec_results = model.generate(audio_path, is_final=True, **param_dict) 服务启动时,显存占用1682MiB,使用10Min大小的音频文件访问后,显存最大占用7252MiB,推理完成后显存占用5186MiB,第二次使用相同的文件访问,显存最大占用7458MiB,推理完成后显存占用5252MiB,显存一直在增加,并未完全释放,请问您是如何测试的?
@secslim 启动的时候,没有推理,显存是占用比较低。之后推理增加是正常的,你有没有一直往上升?上面的开发者是显存一直往上升,直到显存不足。应该是cam++模型的原因
感谢您的回复,我的显存并没有一直往上加,推理之前占用2674MiB,推理之后占用5254MiB,之后一直保持5254MiB
发自我的iPhone
------------------ 原始邮件 ------------------ 发件人: 夜雨飘零 @.> 发送时间: 2024年8月14日 22:11 收件人: modelscope/FunASR @.> 抄送: secslim @.>, Mention @.> 主题: Re: [modelscope/FunASR] 离线音频识别完成后,内存没有释放 (Issue #1808)
@secslim 启动的时候,没有推理,显存是占用比较低。之后推理增加是正常的,你有没有一直往上升?上面的开发者是显存一直往上升,直到显存不足。应该是cam++模型的原因
— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you were mentioned.Message ID: @.***>
@secslim启动的时候,没有推理,显存是占用比较低。之后推理增加是正常的,你有没有一直往上升?上面的开发者是显存一直往上升,直到显存不足。应该是cam++模型的原因
您好,我也有同样的问题,使用了说话人分割模型cam++后,内存无法释放 每次识别音频后 内存不断增加
@secslim启动的时候,没有推理,显存是占用比较低。之后推理增加是正常的,你有没有一直往上升?上面的开发者是显存一直往上升,直到显存不足。应该是cam++模型的原因
您好,我也有同样的问题,使用了说话人分割模型cam++后,内存无法释放 每次识别音频后 内存不断增加
funasr版本是1.1.8么
@secslim启动的时候,没有推理,显存是占用比较低。之后推理增加是正常的,你有没有一直往上升?上面的开发者是显存一直往上升,直到显存不足。应该是cam++模型的原因
您好,我也有同样的问题,使用了说话人分割模型cam++后,内存无法释放锁识别音频后内存不断增加
funasr版本是1.1.8吗
funasr 1.1.8是的
@secslim启动的时候,没有推理,显存是占用比较低。之后推理增加是正常的,你有没有一直往上升?上面的开发者是显存一直往上升,直到显存不足。应该是cam++模型的原因
您好,我也有同样的问题,使用了说话人分割模型cam++后,内存无法释放锁识别音频后内存不断增加
funasr版本是1.1.8吗
是的1.1.8版本 请问您有解决办法吗
那你先把cam++模型注释掉,看看这个现象还有么?
🐛 Bug
To Reproduce
Steps to reproduce the behavior (always include the command you ran):
麻烦大佬有空时能解答解答,十分感谢。
基于/runtime/python/http/server.py的代码做了简单的修改,具体的代码会在下面贴出。 存在问题:识别多个离线音频后,内存没有释放,最后导致内存被打满。
Code sample
Expected behavior
每次识别完成后,内存应该被释放,而不是一直增长。
Environment
pip
, source): pipAdditional context
我用的是CPU版本,虚拟机配置是4核8G,我通过上面的server.py启动需要20-30分钟,识别1分钟双人对话离线音频需要3分钟,不知道是不是配置太低的原因。