TMElyralab / MusePose

MusePose: a Pose-Driven Image-to-Video Framework for Virtual Human Generation
Other
1.83k stars 124 forks source link

some good results #19

Open shaoguowen opened 1 month ago

shaoguowen commented 1 month ago

感谢作者的分享(you are my hero),加入我自己收集的数据微调了一版,分享一些不错的结果:

https://github.com/TMElyralab/MusePose/assets/57278682/cdb45f46-ca73-446d-a395-4f6709e7c802

https://github.com/TMElyralab/MusePose/assets/57278682/299a6a67-0d5a-4e11-83b3-ebe7e7ad86c8

更多AIGC结果可以看我的视频号(温少的AIGC),欢迎讨论交流~

zhanghongyong123456 commented 1 month ago

温少的AIGC

请问你微调的是哪个模型,对于问题(https://github.com/TMElyralab/MusePose/issues/15),你有出现这种现象吗,有好的解决思路吗

shaoguowen commented 1 month ago

温少的AIGC

请问你微调的是哪个模型,对于问题(https://github.com/TMElyralab/MusePose/issues/15),你有出现这种现象吗,有好的解决思路吗

这个应该就是pose检测不准,导致pose align出错了。我是微调stage2,其实就加入之前的一批自己在网上收集和过滤过的舞蹈视频,另外我还加入用blender渲染的非真人(动漫角色、机器人、拟人化动物等)舞蹈视频做训练,提升对非真人的泛化性

zhanghongyong123456 commented 1 month ago

温少的AIGC

请问你微调的是哪个模型,对于问题(https://github.com/TMElyralab/MusePose/issues/15),你有出现这种现象吗,有好的解决思路吗

这个应该就是pose检测不准,导致pose align出错了。我是微调stage2,其实就加入之前的一批自己在网上收集和过滤过的舞蹈视频,另外我还加入用blender渲染的非真人(动漫角色、机器人、拟人化动物等)舞蹈视频做训练,提升对非真人的泛化性

我看了视频检测的pose和图像的pose,是没有问题的,只是在他两对齐转换期间出现了错误

shaoguowen commented 1 month ago

温少的AIGC

请问你微调的是哪个模型,对于问题(https://github.com/TMElyralab/MusePose/issues/15),你有出现这种现象吗,有好的解决思路吗

这个应该就是pose检测不准,导致pose align出错了。我是微调stage2,其实就加入之前的一批自己在网上收集和过滤过的舞蹈视频,另外我还加入用blender渲染的非真人(动漫角色、机器人、拟人化动物等)舞蹈视频做训练,提升对非真人的泛化性

我看了视频检测的pose和图像的pose,是没有问题的,只是在他两对齐转换期间出现了错误

pose align 我这边有实现一个方法是通过3d pose。我先预测src video的smplh pose, 再预测ref image的smplh shape,然后把src的smplh pose + ref的smplh shape 驱动得到3d 关键点,然后再把3d 关键点弱透视到ref的2d图像上。测试下来这种方式比较稳一点

szx503045266 commented 1 month ago

这个效果真不错~我直接inference的效果不够好,请问可以分享下用于微调的代码脚本吗?十分感谢

shaoguowen commented 1 month ago

这个效果真不错~我直接inference的效果不够好,请问可以分享下用于微调的代码脚本吗?十分感谢

我有试过作者的模型,其实效果还可以呀。微调的脚本跟Moore-AnimateAnyone 的https://github.com/MooreThreads/Moore-AnimateAnyone/blob/master/train_stage_2.py 没啥区别,就是加数据和调整学习率。关键点是数据质量

szx503045266 commented 1 month ago

这个效果真不错~我直接inference的效果不够好,请问可以分享下用于微调的代码脚本吗?十分感谢

我有试过作者的模型,其实效果还可以呀。微调的脚本跟Moore-AnimateAnyone 的https://github.com/MooreThreads/Moore-AnimateAnyone/blob/master/train_stage_2.py 没啥区别,就是加数据和调整学习率。关键点是数据质量

哦哦好的,我微调试一下,感谢~主要感觉对真人图片达不到demo展示的效果,脸、手和脚变形比较严重

https://github.com/TMElyralab/MusePose/assets/45331149/825c08ea-2a07-4b24-84ea-a75510ec3acb

shaoguowen commented 1 month ago

这个效果真不错~我直接inference的效果不够好,请问可以分享下用于微调的代码脚本吗?十分感谢

我有试过作者的模型,其实效果还可以呀。微调的脚本跟Moore-AnimateAnyone 的https://github.com/MooreThreads/Moore-AnimateAnyone/blob/master/train_stage_2.py 没啥区别,就是加数据和调整学习率。关键点是数据质量

哦哦好的,我微调试一下,感谢~主要感觉对真人图片达不到demo展示的效果,脸、手和脚变形比较严重

image_img_image_video_dance2_3.5_20_1__.mp4

说实话,你这个算不错的(就是手臂有点长)。手和脸扭曲是现在diffusion模型都会有的问题。脸的话可以facefusion换脸修复。

szx503045266 commented 1 month ago

这个效果真不错~我直接inference的效果不够好,请问可以分享下用于微调的代码脚本吗?十分感谢

我有试过作者的模型,其实效果还可以呀。微调的脚本跟Moore-AnimateAnyone 的https://github.com/MooreThreads/Moore-AnimateAnyone/blob/master/train_stage_2.py 没啥区别,就是加数据和调整学习率。关键点是数据质量

哦哦好的,我微调试一下,感谢~主要感觉对真人图片达不到demo展示的效果,脸、手和脚变形比较严重 image_img_image_video_dance2_3.5_20_1__.mp4

说实话,你这个算不错的(就是手臂有点长)。手和脸扭曲是现在diffusion模型都会有的问题。脸的话可以facefusion换脸修复。

嗯嗯确实,我想看看脚那里微调能不能有效果,这个感觉影响比较大

shaoguowen commented 1 month ago

这个效果真不错~我直接inference的效果不够好,请问可以分享下用于微调的代码脚本吗?十分感谢

我有试过作者的模型,其实效果还可以呀。微调的脚本跟Moore-AnimateAnyone 的https://github.com/MooreThreads/Moore-AnimateAnyone/blob/master/train_stage_2.py 没啥区别,就是加数据和调整学习率。关键点是数据质量

哦哦好的,我微调试一下,感谢~主要感觉对真人图片达不到demo展示的效果,脸、手和脚变形比较严重 image_img_image_video_dance2_3.5_20_1__.mp4

说实话,你这个算不错的(就是手臂有点长)。手和脸扭曲是现在diffusion模型都会有的问题。脸的话可以facefusion换脸修复。

嗯嗯确实,我想看看脚那里微调能不能有效果,这个感觉影响比较大

我一个想法是,把脚步的关键点加上。

企业微信截图_346ff41e-96d8-4ecb-94a3-bad35ed00ce6
szx503045266 commented 1 month ago

这个效果真不错~我直接inference的效果不够好,请问可以分享下用于微调的代码脚本吗?十分感谢

我有试过作者的模型,其实效果还可以呀。微调的脚本跟Moore-AnimateAnyone 的https://github.com/MooreThreads/Moore-AnimateAnyone/blob/master/train_stage_2.py 没啥区别,就是加数据和调整学习率。关键点是数据质量

哦哦好的,我微调试一下,感谢~主要感觉对真人图片达不到demo展示的效果,脸、手和脚变形比较严重 image_img_image_video_dance2_3.5_20_1__.mp4

说实话,你这个算不错的(就是手臂有点长)。手和脸扭曲是现在diffusion模型都会有的问题。脸的话可以facefusion换脸修复。

嗯嗯确实,我想看看脚那里微调能不能有效果,这个感觉影响比较大

我一个想法是,把脚步的关键点加上。 企业微信截图_346ff41e-96d8-4ecb-94a3-bad35ed00ce6

嗯有道理,应该会有效果

TZYSJTU commented 1 month ago

温少的AIGC

请问你微调的是哪个模型,对于问题(https://github.com/TMElyralab/MusePose/issues/15),你有出现这种现象吗,有好的解决思路吗

这个应该就是pose检测不准,导致pose align出错了。我是微调stage2,其实就加入之前的一批自己在网上收集和过滤过的舞蹈视频,另外我还加入用blender渲染的非真人(动漫角色、机器人、拟人化动物等)舞蹈视频做训练,提升对非真人的泛化性

我看了视频检测的pose和图像的pose,是没有问题的,只是在他两对齐转换期间出现了错误

pose align 我这边有实现一个方法是通过3d pose。我先预测src video的smplh pose, 再预测ref image的smplh shape,然后把src的smplh pose + ref的smplh shape 驱动得到3d 关键点,然后再把3d 关键点弱透视到ref的2d图像上。测试下来这种方式比较稳一点

Could you please share this 3d align algorithm? We have planned to do a similar thing months ago, but we are too busy to do this.

zhanghongyong123456 commented 1 month ago

pose align 我这边有实现一个方法是通过3d pose。我先预测src video的smplh pose, 再预测ref image的smplh shape,然后把src的smplh pose + ref的smplh shape 驱动得到3d 关键点,然后再把3d 关键点弱透视到ref的2d图像上。测试下来这种方式比较稳一点

Could you please share this 3d align algorithm? We have planned to do a similar thing months ago, but we are too busy to do this. 我测试champ 预处理方式,效果感觉很好, https://github.com/TMElyralab/MusePose/issues/15#issuecomment-2141675581

https://github.com/TMElyralab/MusePose/assets/48466610/84e24041-bd4c-4d2d-932a-62481bd975e4

大佬可以细看一下,具体实现 https://github.com/fudan-generative-vision/champ/blob/master/docs/data_process.md

runshouse commented 1 month ago

Did you guys change the configurations to get these results? Not getting great results using the default configurations.

G-force78 commented 1 month ago

Changed height to 512 line 477 of pose_align

https://github.com/TMElyralab/MusePose/assets/114336644/b8e45772-4b77-4348-8966-3be6770e0f3f

zhanghongyong123456 commented 1 month ago

温少的AIGC

请问你微调的是哪个模型,对于问题(https://github.com/TMElyralab/MusePose/issues/15),你有出现这种现象吗,有好的解决思路吗

这个应该就是pose检测不准,导致pose align出错了。我是微调stage2,其实就加入之前的一批自己在网上收集和过滤过的舞蹈视频,另外我还加入用blender渲染的非真人(动漫角色、机器人、拟人化动物等)舞蹈视频做训练,提升对非真人的泛化性

我看了视频检测的pose和图像的pose,是没有问题的,只是在他两对齐转换期间出现了错误

pose align 我这边有实现一个方法是通过3d pose。我先预测src video的smplh pose, 再预测ref image的smplh shape,然后把src的smplh pose + ref的smplh shape 驱动得到3d 关键点,然后再把3d 关键点弱透视到ref的2d图像上。测试下来这种方式比较稳一点

请问大佬可以分享一下你的3d 对齐的脚本吗,测试几个对于对齐有的图像对不上,容易生成变形的对齐

shaoguowen commented 1 month ago

温少的AIGC

请问你微调的是哪个模型,对于问题(https://github.com/TMElyralab/MusePose/issues/15),你有出现这种现象吗,有好的解决思路吗

这个应该就是pose检测不准,导致pose align出错了。我是微调stage2,其实就加入之前的一批自己在网上收集和过滤过的舞蹈视频,另外我还加入用blender渲染的非真人(动漫角色、机器人、拟人化动物等)舞蹈视频做训练,提升对非真人的泛化性

我看了视频检测的pose和图像的pose,是没有问题的,只是在他两对齐转换期间出现了错误

pose align 我这边有实现一个方法是通过3d pose。我先预测src video的smplh pose, 再预测ref image的smplh shape,然后把src的smplh pose + ref的smplh shape 驱动得到3d 关键点,然后再把3d 关键点弱透视到ref的2d图像上。测试下来这种方式比较稳一点

请问大佬可以分享一下你的3d 对齐的脚本吗,测试几个对于对齐有的图像对不上,容易生成变形的对齐

我那个脚本依赖的包有一部分是司内的工作,不好分享出来。我再细说一下流程,具体实现还得靠你自己,全程没有用到blender,用python实现就好了。

  1. 3d pose estimation可以用这个工作 smpler-x:https://github.com/caizhongang/SMPLer-X.
  2. 用smpler-x 预测 src video的smpl 3d pose,这里我们只要pose。
  3. 用 SMPLer-X预测ref image的smpl shape和smpl transl。
  4. 把src 的3d pose和ref image的smpl shape和smpl transl结合run一遍smpl 模型就可以拿到相机坐标系下的3d 坐标点。
  5. 参考mmpose:https://github.com/open-mmlab/mmhuman3d/blob/main/mmhuman3d/core/conventions/keypoints_mapping/smplx.py,将smplx转为openpose的3d坐标点
  6. 用弱透视原理把3d坐标点映射到2d 平面上,smpler-x那里应该有实现,没有的话google一下,很简单。
zhanghongyong123456 commented 1 month ago

温少的AIGC

请问你微调的是哪个模型,对于问题(https://github.com/TMElyralab/MusePose/issues/15),你有出现这种现象吗,有好的解决思路吗

这个应该就是pose检测不准,导致pose align出错了。我是微调stage2,其实就加入之前的一批自己在网上收集和过滤过的舞蹈视频,另外我还加入用blender渲染的非真人(动漫角色、机器人、拟人化动物等)舞蹈视频做训练,提升对非真人的泛化性

我看了视频检测的pose和图像的pose,是没有问题的,只是在他两对齐转换期间出现了错误

pose align 我这边有实现一个方法是通过3d pose。我先预测src video的smplh pose, 再预测ref image的smplh shape,然后把src的smplh pose + ref的smplh shape 驱动得到3d 关键点,然后再把3d 关键点弱透视到ref的2d图像上。测试下来这种方式比较稳一点

请问大佬可以分享一下你的3d 对齐的脚本吗,测试几个对于对齐有的图像对不上,容易生成变形的对齐

我那个脚本依赖的包有一部分是司内的工作,不好分享出来。我再细说一下流程,具体实现还得靠你自己,全程没有用到blender,用python实现就好了。

  1. 3d pose estimation可以用这个工作 smpler-x:https://github.com/caizhongang/SMPLer-X.
  2. 用smpler-x 预测 src video的smpl 3d pose,这里我们只要pose。
  3. 用 SMPLer-X预测ref image的smpl shape和smpl transl。
  4. 把src 的3d pose和ref image的smpl shape和smpl transl结合run一遍smpl 模型就可以拿到相机坐标系下的3d 坐标点。
  5. 参考mmpose:https://github.com/open-mmlab/mmhuman3d/blob/main/mmhuman3d/core/conventions/keypoints_mapping/smplx.py,将smplx转为openpose的3d坐标点。
  6. 用弱透视原理把3d坐标点映射到2d 平面上,smpler-x那里应该有实现,没有的话google一下,很简单。

感谢指导,我明天细看一下

runshouse commented 4 weeks ago

Did you guys change the configurations to get these results? Not getting great results using the default configurations.

you can share your ref image and pose video

Here's an example. It's almost always just the face that's distorted.

person

https://github.com/TMElyralab/MusePose/assets/23641679/7989330e-a424-4dc5-94cb-df59ceecd9a0

https://github.com/TMElyralab/MusePose/assets/23641679/2f61e45d-76d0-4e9a-9498-000af749feff

shaoguowen commented 4 weeks ago

Did you guys change the configurations to get these results? Not getting great results using the default configurations.

you can share your ref image and pose video

Here's an example. It's almost always just the face that's distorted.

person

anyone.mp4 person_anyone_3.5_20_1__.mp4

  1. do not use face keypoints
  2. you can faceswap to enhence your result, like facefusion:https://github.com/facefusion/facefusion
zhanghongyong123456 commented 3 weeks ago
  1. 3d pose estimation可以用这个工作 smpler-x:https://github.com/caizhongang/SMPLer-X.
  2. 用smpler-x 预测 src video的smpl 3d pose,这里我们只要pose。
  3. 用 SMPLer-X预测ref image的smpl shape和smpl transl。
  4. 把src 的3d pose和ref image的smpl shape和smpl transl结合run一遍smpl 模型就可以拿到相机坐标系下的3d 坐标点。
  5. 参考mmpose:https://github.com/open-mmlab/mmhuman3d/blob/main/mmhuman3d/core/conventions/keypoints_mapping/smplx.py,将smplx转为openpose的3d坐标点。
  6. 用弱透视原理把3d坐标点映射到2d 平面上,smpler-x那里应该有实现,没有的话google一下,很简单。

请问第四步:把src 的3d pose和ref image的smpl shape和smpl transl结合run一遍smpl 模型就可以拿到相机坐标系下的3d 坐标点。 我拿到了3d pose、smpl shape、smpl transl; run一遍smpl 模型,这个如何操作呢,不太明白

shaoguowen commented 2 weeks ago
  1. 3d pose estimation可以用这个工作 smpler-x:https://github.com/caizhongang/SMPLer-X.
  2. 用smpler-x 预测 src video的smpl 3d pose,这里我们只要pose。
  3. 用 SMPLer-X预测ref image的smpl shape和smpl transl。
  4. 把src 的3d pose和ref image的smpl shape和smpl transl结合run一遍smpl 模型就可以拿到相机坐标系下的3d 坐标点。
  5. 参考mmpose:https://github.com/open-mmlab/mmhuman3d/blob/main/mmhuman3d/core/conventions/keypoints_mapping/smplx.py,将smplx转为openpose的3d坐标点。
  6. 用弱透视原理把3d坐标点映射到2d 平面上,smpler-x那里应该有实现,没有的话google一下,很简单。

请问第四步:把src 的3d pose和ref image的smpl shape和smpl transl结合run一遍smpl 模型就可以拿到相机坐标系下的3d 坐标点。 我拿到了3d pose、smpl shape、smpl transl; run一遍smpl 模型,这个如何操作呢,不太明白

就是跑一遍smplx的forward呀

image
aleeyang commented 2 weeks ago

这个效果真不错~我直接inference的效果不够好,请问可以分享下用于微调的代码脚本吗?十分感谢

我有试过作者的模型,其实效果还可以呀。微调的脚本跟Moore-AnimateAnyone 的https://github.com/MooreThreads/Moore-AnimateAnyone/blob/master/train_stage_2.py 没啥区别,就是加数据和调整学习率。关键点是数据质量

哦哦好的,我微调试一下,感谢~主要感觉对真人图片达不到demo展示的效果,脸、手和脚变形比较严重

image_img_image_video_dance2_3.5_20_1__.mp4

大佬 有fine-tuning 脚本分享下吗?

ylhua commented 5 days ago

温少的AIGC

请问你微调的是哪个模型,对于问题(https://github.com/TMElyralab/MusePose/issues/15),你有出现这种现象吗,有好的解决思路吗

这个应该就是pose检测不准,导致pose align出错了。我是微调stage2,其实就加入之前的一批自己在网上收集和过滤过的舞蹈视频,另外我还加入用blender渲染的非真人(动漫角色、机器人、拟人化动物等)舞蹈视频做训练,提升对非真人的泛化性

我看了视频检测的pose和图像的pose,是没有问题的,只是在他两对齐转换期间出现了错误

pose align 我这边有实现一个方法是通过3d pose。我先预测src video的smplh pose, 再预测ref image的smplh shape,然后把src的smplh pose + ref的smplh shape 驱动得到3d 关键点,然后再把3d 关键点弱透视到ref的2d图像上。测试下来这种方式比较稳一点

请问大佬可以分享一下你的3d 对齐的脚本吗,测试几个对于对齐有的图像对不上,容易生成变形的对齐

我那个脚本依赖的包有一部分是司内的工作,不好分享出来。我再细说一下流程,具体实现还得靠你自己,全程没有用到blender,用python实现就好了。

  1. 3d pose estimation可以用这个工作 smpler-x:https://github.com/caizhongang/SMPLer-X.
  2. 用smpler-x 预测 src video的smpl 3d pose,这里我们只要pose。
  3. 用 SMPLer-X预测ref image的smpl shape和smpl transl。
  4. 把src 的3d pose和ref image的smpl shape和smpl transl结合run一遍smpl 模型就可以拿到相机坐标系下的3d 坐标点。
  5. 参考mmpose:https://github.com/open-mmlab/mmhuman3d/blob/main/mmhuman3d/core/conventions/keypoints_mapping/smplx.py,将smplx转为openpose的3d坐标点。
  6. 用弱透视原理把3d坐标点映射到2d 平面上,smpler-x那里应该有实现,没有的话google一下,很简单。

想问下这么做会和训练数据集中的pose分布有gap吗