liangwq / Chatglm_lora_multi-gpu

chatglm多gpu用deepspeed和
404 stars 61 forks source link

Chatglm_lora_multi-gpu

大模型prompt&delta理论部分知识

1.CSDN链接

2.知乎链接

语音学术助手理论部分

1.知乎链接

2.知乎链接

langchain keypoint理论部分

1.知乎链接

2.知乎链接

代码见APP_example/langchain_keypoint

C3893346-9075-4140-B7C2-0377ABCF8459

real time draw

代码见APP_example/real_time_draw 9c6c0fad58b45cf76c51c601f5a75808 png

A297A761-871C-46A3-83A5-3C46440550DD

clip retrieval理论部分

1.知乎链接 代码见APP_example/clip_retrieval

1.图片库特征抽取代码:extract_embeddings.py 2.图片特征在faiss向量数据库建立索引:build_index.py 3.可视化应用界面:app.py

clip_search00

clip_searcg01

retrieval inage generator理论部分

1.知乎链接

代码见APP_example/retrieval_image_gen,如果直接启动需要24G左右显卡(没这么对显卡同学可以考虑api方式实现llm和image2image,clip检索显卡需求很低)

1.整合最终效果代码:app_gradio.py 2.图片image2image代码:upimage.py 3.openaistyle访问qwen大模型:先启动服务端openai_api.py;在启动可视化界面 chatbot_st.py
aigc-imag0 aigc-img01

带文字海报智能生成理论部分

1.知乎链接

代码见APP_example/auto_poster,如果直接启动需要24G左右显卡.目前代码还之包括4个模块,模块间衔接需要人手动操作,下一个版本会做到自动化一键输入生成。

1.生图模块 2.字排版模块 3.图文混合模块 4.图审核验证模块
aigc-img01

AI native数字人理论部分

1.知乎链接

代码见APP_example/digital_human,有五个模块,每个模块可以顺序启动,启动一个运行完得到中间结果关闭然后运行下一个。

1.单图生成模块:使用上海人工智能研究所的Lumina架构进行图像生成。 2.声音克隆模块:使用阿里通义的CosyVoice进行声音克隆。 3.角色动作生成模块:使用MuseV进行角色动作生成。 4.角色口型生成模块:使用MuseTalk进行角色口型生成。

https://github.com/liangwq/Chatglm_lora_multi-gpu/assets/9170648/e91a7540-f87f-40bc-91a8-4e88887c5598

https://github.com/liangwq/Chatglm_lora_multi-gpu/assets/9170648/bccbf5f0-a3af-488f-a625-cac7330dc9e1

以chatglm为引擎,逐步配置各种插件,拓展更多应用

初始化环境

pip install -r requirements.txt

包括3种方式多gpu运行:

0 最简单的多gpu运行,能跑通的单机脚本+deepspeed的配置文件就可以

单机执行命令 python finetune.py \ --dataset_path data/alpaca \ --lora_rank 8 \ --per_device_train_batch_size 2 \ --gradient_accumulation_steps 1 \ --max_steps 2000 \ --save_steps 1000 \ --save_total_limit 2 \ --learning_rate 2e-5 \ --fp16 \ --remove_unused_columns false \ --logging_steps 50 \ --report_to wandb --output_dir output
多Gpu执行命令 torchrun --nproc_per_node=2 multi_gpu_fintune_belle.py \ --dataset_path data/alpaca \ --lora_rank 8 \ --per_device_train_batch_size 1 \ --gradient_accumulation_steps 1 \ --save_steps 2000 \ --save_total_limit 2 \ --learning_rate 2e-5 \ --fp16 \ --num_train_epochs 2 \ --remove_unused_columns false \ --logging_steps 50 \ --report_to wandb --output_dir output \ --deepspeed ds_config_zero3.json

1.deepspeed

数据处理

给两份belle中文的self instruct数据 1.0.5M版本: cd data wget https://huggingface.co/datasets/BelleGroup/generated_train_0.5M_CN/resolve/main/Belle.train.json 2.1M版本 wget https://huggingface.co/datasets/BelleGroup/generated_train_1M_CN/resolve/main/belle_open_source_1M.train.json 3.把两份数据合并成一份 a.0.5M和1M数据字段有些不同,统一处理数据,用地下代码处理1M数据 cd .. python process_belle_1M_data.py b.把两份文件合并成一份,命名为:Belle_0_1.train.json cd data & cat Belle.train.json Belle_1M.train.json>Belle_0_1.train.json

数据准备好后执行下面命令

torchrun --nproc_per_node=2 multi_gpu_fintune_belle.py \ --dataset_path data/alpaca \ --lora_rank 8 \ --per_device_train_batch_size 1 \ --gradient_accumulation_steps 1 \ --save_steps 1000 \ --save_total_limit 2 \ --learning_rate 2e-5 \ --fp16 \ --num_train_epochs 2 \ --remove_unused_columns false \ --logging_steps 50 \ --gradient_accumulation_steps 2 \ --output_dir output \ --deepspeed ds_config_zero3.json

2.accelerate+deepspeed

准备数据

下载数据 cd data wget https://huggingface.co/datasets/BelleGroup/generated_train_0.5M_CN/resolve/main/Belle.train.json python tokenize_dataset_rows_belle.py \ --jsonl_path data/alpaca_data.jsonl \ --save_path data/alpaca \ --max_seq_length 200 \ --skip_overlength

数据准备好后执行下面命令

accelerate launch --config_file accelerate_ds_zero3_cpu_offload_config.yaml multi_gpu_fintune_belle.py \ --dataset_path data/alpaca \ --lora_rank 8 \ --per_device_train_batch_size 2 \ --gradient_accumulation_steps 1 \ --max_steps 10000 \ --save_steps 1000 \ --save_total_limit 2 \ --learning_rate 2e-5 \ --fp16 \ --remove_unused_columns false \ --logging_steps 50 \ --output_dir output

3.ddp方式还没试

batch inference

实际工作中常常会出现,需要批量不数据预测出来问题

往往我们有一台高性能的机器,但是如果做fintune,只能一张卡一个时间面对一个请求,造成显卡存资源浪费

batch inference成为必要

1.deepspeed --num_gpus 2 chatglm_deepspeed_inference.py

2.显卡资源不足以装下大模型,可以用accelerate.load_checkpoint_and_dispatch:

python chatglm_milti_gpu_inference.py 如果也想用deepspeed加速,把以下注释代码去掉:
# init deepspeed inference engine '''ds_model = deepspeed.init_inference( model=model, # Transformers models mp_size=8, # Number of GPU dtype=torch.float16, # dtype of the weights (fp16) replace_method="auto", # Lets DS autmatically identify the layer to replace replace_with_kernel_inject=True, # replace the model with the kernel injector ) print(f"model is loaded on device {ds_model.module.device}")'''
deepspeed --num_gpus 2 chatglm_milti_gpu_inference.py ## webUI交互 ## 进入webui文件夹,执行readme.txt命令即可 ![image](https://user-images.githubusercontent.com/9170648/229347851-e4047f85-4ab9-4ba2-bbb2-219375d40465.png) streamlit run web_feedback.py --server.port 6006 ## 新增chatglm作图应用 ## ![生成图](https://user-images.githubusercontent.com/9170648/229387760-b72b063a-5cd2-4243-b204-b4f782692d9b.png) 进入APP——example应用 ![023106E2-912D-4999-A0A2-9971C36A0769](https://user-images.githubusercontent.com/9170648/229387734-9a4c3c88-50ae-4492-b897-aba20f9cb46e.png) ![7762BA98-AE3C-4D28-8CFD-8531A1C9209A](https://user-images.githubusercontent.com/9170648/229387742-35616814-3b60-43c4-9b5b-94be7720f0ab.png) ## 利用自定义知识库约束,chatglm回复 ## 进入APP——example应用 chat_langchain pip install -r requirement.txt \n python knowledge_based_chatglm.py
不带知识库回复: Q:世界上最大河流 A:"世界上最大的河流是尼罗河。尼罗河是非洲大陆最长的河流,全长约6650公里,发源于东非高原,流经苏丹、乌干达、肯尼亚、坦桑尼亚、卢旺达、刚果民主共和国、布隆迪和埃及,最终注入地中海。尼罗河流域是非洲最重要的农业地区之一,也是世界上最古老的文明之一埃及文明的发源地之一。"
带知识库回复 基于本地知识搜索没有找到答案 ![image](https://user-images.githubusercontent.com/9170648/230585408-03a4a8a8-c6ff-4f73-94c1-4e7682f0608b.png) ## 新增chatglm强化学习Alignment部分(RLHF) ## 现在还比较naive,逐步会增加更实用更工业化的任务 ## 新增stablediffusion lora训练能力 ## 1.新增dreambooth lora训练方法 2.多lora合并生成效果 ![webwxgetmsgimg (3)](https://user-images.githubusercontent.com/9170648/232065892-35b018f6-2556-47f4-afd0-f6098cb1ba8c.jpeg) ![webwxgetmsgimg (1)](https://user-images.githubusercontent.com/9170648/232065979-c4a88677-4daa-4c2a-be8c-bcaa49d38de4.jpeg) ## LLM_StableDiffusion_Studio ## 做了一个工具整合,后面会整合更多能力,相信我们不会只做工具罗列的人 https://github.com/liangwq/LLM_StableDiffusion_Studio ![1620634258](https://user-images.githubusercontent.com/9170648/232819417-f016b1dc-874d-46a9-bdec-1490f7f3f24a.jpg) ![webwxgetmsgimg (8)](https://user-images.githubusercontent.com/9170648/232819413-d4bde13a-9aac-4b8e-b62b-a4ae388563f8.jpeg) ![webwxgetmsgimg (9)](https://user-images.githubusercontent.com/9170648/232819416-8918ae7f-7628-4b1c-855b-06e2f35e18e8.jpeg) ![webwxgetmsgimg (10)](https://user-images.githubusercontent.com/9170648/232819414-4c5055c6-2d4b-4a2d-ab17-5256498d9bac.jpeg) ![webwxgetmsgimg (11)](https://user-images.githubusercontent.com/9170648/232819411-1f9e4319-85b1-46f3-b5f6-5c9e70badeac.jpeg) ![webwxgetmsgimg (12)](https://user-images.githubusercontent.com/9170648/232819412-9f7b117d-1c03-4e64-83cc-c7ed90de124f.jpeg) ## 新增chatglm实现agent的能力 增加chtglm构建agent代码 1.**[知乎链接]([https://blog.csdn.net/liangwqi/article/details/129835450](https://zhuanlan.zhihu.com/p/644167758))** 增加向量检索tool 1.**[知乎链接]([https://zhuanlan.zhihu.com/p/617919855](https://zhuanlan.zhihu.com/p/644619003))** ![image](https://github.com/liangwq/Chatglm_lora_multi-gpu/assets/9170648/45a8d69d-d5b4-4e71-9027-c2eebfb79b5c)