Open dtedesco1 opened 1 year ago
More thoughts from Leo:
"除了使用我们提供的视频进行训练外,您还可以自己录制视频,为自己训练一个独一无二的GeneFace虚拟人模型!" GeneFace 不能作为one-shot的方式使用, 需要搭配其它模型使用, 如果我们要通过声音驱动林肯说话, 则需要先在GeneFace上面进行train, 才能得到一个林肯的GeneFace模型, train的时候需要提供一个以上的林肯视频才行, 不过这个倒是可以使用video driven的模型通过单张照实现;
训练好了之后, 进行推理可能会比较消耗资源 : "基于NeRF的图像渲染器的推理过程相对较慢(使用RTX2080Ti渲染250帧512x512分辨率的图像需要大约2个小时)"
这个项目完成了一个数字人最后的版图, 牛比了, 大致的过程如下:
甚至可以通过https://www.resemble.ai/ (Your Complete Generative Voice AI Toolkit) 进行声音克隆, 那就更真实了, 比如我们以奥巴马为例子, 只需要他的一张照片, 一段音频; 就可以得到一个奥巴马的数字人形象
hi Dan, I have thoughts on creating a video in autovidos, hope this can help you
AudioLDM: which can create background audio for your video Generate speech, sound effects, music and beyond, with text. e.g: background music for sci-fi videos source code: https://github.com/haoheliu/AudioLDM huggingface: https://huggingface.co/spaces/haoheliu/audioldm-text-to-audio-generation
wav2lip: make single static portrait image became to talking video source: https://github.com/Rudrabha/Wav2Lip webiste: https://bhaasha.iiit.ac.in/lipsync/
video driven portrait animation: Can generate talking heads or move body from single static image Source: https://github.com/yoyo-nb/Thin-Plate-Spline-Motion-Model huggingface: https://huggingface.co/spaces/CVPR/Image-Animation-using-Thin-Plate-Spline-Motion-Model