本项目旨在实现一个高自由度的可定制AI-VTuber。支持对接哔哩哔哩直播间,以智谱API作为语言基座模型,拥有意图识别、长短期记忆(直接记忆和联想记忆),支持搭建认知库、歌曲作品库,接入了当前热门的一些语音转换、语音合成、图像生成、数字人驱动项目,并提供了一个便于操作的客户端。
本项目特色:
文档教程(正在更新中)| 视频效果演示(这个是老版本的演示)|作者的相关作品集(新版)|夸克网盘【提供整合包、预训练模型的下载】
本项目提供release版以及整合包版。
[x] 当前版本功能:
[ ] 当前主要工作:
[ ] 未来v2版本更新计划(本人大四生,这一年将会比较忙碌,所以v2更新会比较慢):
0、缩减项目体积和运行成本
1、基于electron开发桌面应用(主要任务)
2、主要基于国内性价比较高的LLM继续开发Agent模块
3、完善一个作为AI主播该有的直播间交互功能
4、尝试更多的数字人方案(目前正在考虑以生态较为成熟的live2d技术配合图像生成作为下一阶段的数字人方案), 例如:https://github.com/user-attachments/assets/9f699967-feb7-4dc8-9f38-b28a64d06c89
前置准备
release版需要提前下载预训练模型并将其放置于
runtime
├───miniconda3
└───pretrained_models
├───faster-whisper
└───large-v2
└───这里
├───gte-base-zh
└───这里
tools
├───uvr5
└───uvr5_weights
└───这里
在本项目根目录中,存在以下两个bat脚本
运行 condaenv.bat #本项目主环境搭建(整合包可以忽略这步)
运行 start.bat #启动客户端
清华:https://pypi.tuna.tsinghua.edu.cn/simple/
阿里云:http://mirrors.aliyun.com/pypi/simple/
中国科技大学:https://pypi.mirrors.ustc.edu.cn/simple/
华中科技大学:http://pypi.hustunique.com/simple/
上海交通大学:https://mirror.sjtu.edu.cn/pypi/web/simple/
豆瓣:http://pypi.douban.com/simple/
[流萤:睡眠状态]
https://github.com/whoiswennie/AI-Vtuber/assets/104626642/4422cde1-e6c2-4c7c-8562-f5f1d2ab5c8c
[流萤:说话状态]
https://github.com/whoiswennie/AI-Vtuber/assets/104626642/6bb1bfda-c1e4-4a16-812d-f155f3c7619c
[流萤:点歌状态]
https://github.com/whoiswennie/AI-Vtuber/assets/104626642/8e5db4d6-f71c-4a94-a474-e5bd5f31f251
[流萤:唱歌状态]
https://github.com/whoiswennie/AI-Vtuber/assets/104626642/db5347d6-95f7-4836-95fd-00040e9826c4
https://github.com/xfgryujk/blivedm
https://github.com/ycyy/faster-whisper-webui
https://github.com/svc-develop-team/so-vits-svc
https://github.com/RVC-Boss/GPT-SoVITS
https://github.com/Anjok07/ultimatevocalremovergui
https://github.com/Ksuriuri/EasyAIVtuber
https://github.com/fishaudio/Bert-VITS2