Closed Luckyjjjjjjj closed 7 months ago
search for wrapper_CUDA___slow_conv2d_forward and you will find a bunch of related issues.
好的,非常感谢,可能是我之前搜索问题的关键词不对,所以没有看到相关内容。但是为什么我的4090在使用animatedif文生图的时候,只是提供了一个13秒的视频作为参考,也就添加了一个openpose的cn控制,但是花费了好久的时间,我看控制台在预处理的时候就花费了几十分钟,而且全程都是在使用我的cpu,我的cpu是满负荷运作的,等预处理结束后才开始使用我的gpu工作,我提供一部分控制台的信息给您看一下,麻烦您了,给我一些建议。
o create a public link, set share=True
in launch()
.
Startup time: 13.8s (prepare environment: 4.0s, import torch: 2.8s, import gradio: 0.9s, setup paths: 0.5s, initialize shared: 0.2s, other imports: 0.5s, load scripts: 1.5s, create ui: 0.7s, gradio launch: 2.3s, add APIs: 0.2s).
2023-11-26 12:29:40,649 - AnimateDiff - INFO - AnimateDiff process start.
2023-11-26 12:29:40,649 - AnimateDiff - INFO - Loading motion module mm_sd_v15_v2.ckpt from E:\sd-webui-aki-v4.4\extensions\sd-webui-animatediff\model\mm_sd_v15_v2.ckpt
2023-11-26 12:29:41,247 - AnimateDiff - INFO - Guessed mm_sd_v15_v2.ckpt architecture: MotionModuleType.AnimateDiffV2
2023-11-26 12:29:42,809 - AnimateDiff - WARNING - Missing keys
使用CPU会很慢,建议用GPU处理CN。另外CN是sequential,不会batch in parallel。
还有一点补充一下,我64G的内存,就刚才说的工作内容,用掉了我将近40G的内存
您好,又要打扰您了,两个问题,第一个是您说的用gpu处理cn,是如何设置的,您如果觉得麻烦可以给我一个链接,我自行学习参考。第二个问题是我不过是做一个13秒的视频,用了一个openpose加一个高清修复,显示我内存不足了,我64g不够使用吗?我附上我的控制台内容信息,麻烦您了,这对我很重要。
Error completing request
Arguments: ('task(4j58tub1hfcf2of)', '(masterpiece, best quality, detailed),1girl,solo,indoors,window,blue sky,hallway,souryuu asuka langley,interface headset,suspender skirt,red ribbon,white shirt,school uniform,socks,shoes,
SD1.5 + FP8
我不知道你是怎么让CN在CPU上跑的,默认设置就是在显卡上跑,建议检查一下Settings/ControlNet和你自己的UI面板
我检查过我的Settings/Controlnet并没有提及让cn在cpu上跑的任何设置,同时我的ui面板没做过任何相关改动。 然而现在重点已经不在这个cpu跑cn的问题了,时间慢我都可以接受,现在的重点是我无法跑完这个流程,报我内存不足的错误,我的内存32GX2,6000频率的,难道还无法完成这项任务吗?我并不是一个喜好更改设置的人,所以大部分设置我都是没有动过的,完全按照基本设置同时按照您介绍里设置的,现在让我很为难,我无法跑完整个流程,麻烦可以看一下我上个回复里的控制台信息吗
Again, SD1.5 + FP8, 我能帮的就只能到这儿了
如果你想要让CN到显卡跑,我一般只会有--opt-sdp-attention和--no-half-vae两个参数,建议检查是否有其他参数。实在不行建议fresh reinstall
你的terminal output明显在跑sdxl,目前SDXL的motion module尚不成熟,不推荐使用sdxl
好的,感谢您,但是我声明一下,我并没有用sdxl的模型,我用的是AnyLoraCleanLinearMix-ClearVAE,您可以在C站上看一下,我看到的是sd1.5模型,所以我只是给您把这个信息给到您,也许是不是扩展里有什么地方出错了
sgm是sdxl才会运行到的模块,我也不知道为什么你的webui会跑到sdxl那里去,这和你的模型选择有关,和插件无关。
好的,反正非常感谢,我会尝试用其他模型来试试
您好,想给您私信但又不知道怎么私信,所以在这边想再次请教一下您,因为不经过高清修复那一环出来的图片手部大部分都是有问题的,如果后期高清放大也不会太好,但是我如果开着高清修复跑文生图的animate加视频的话又会报错,我该如何才能做好这件事呢?
Is there an existing issue for this?
Have you read FAQ on README?
What happened?
RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cpu and cuda:0! (when checking argument for argument weight in method wrapper_CUDA___slow_conv2d_forward)
Steps to reproduce the problem
已更新到了最新的web ui 也把animatedif更新到了最新 就是报错
What should have happened?
正常进行
Commit where the problem happens
webui: 版本1.614afaaf8 extension: sd-webui-animatediff
What browsers do you use to access the UI ?
Microsoft Edge
Command Line Arguments
Console logs
Additional information
No response