Open ironartisan opened 11 months ago
随着ChatGPT的出圈,大语言模型层出不穷,并展现出非凡的能力,可以有效地解决各种复杂问题。然而,这些模型通常需要大量的计算资源和内存,导致运行时资源消耗较高,限制了其在某些场景下的应用,让很多研究者望而却步。本项目使用通俗易懂的语言介绍模型的剪枝、量化、知识蒸馏等压缩方法,让更多的小白能更快了解到模型压缩技术。 项目地址:https://github.com/bupt-ai-club/awesome-compression
目前网上关于模型压缩的相关资料比较驳杂,初学者很难找到一个简单优质的的中文入门教程来学习。本项目借鉴MIT 6.5940 TinyML and Efficient Deep Learning Computing,提供模型压缩的入门教程,降低模型压缩的学习门槛。在教程中,您将了解不同的压缩方法,通过实践和示例,学习如何应用这些方法来压缩深度学习模型,以满足实际应用需求。
本项目适合以下学习者:
负责人:陈玉立 邮箱:chenyuli@bupt.edu.cn
同意
7天内无反对意见则默认立项通过
你是否已经阅读并同意《Datawhale开源项目指南》?
你是否已经阅读并同意《Datawhale开源项目行为准则》?
项目简介
随着ChatGPT的出圈,大语言模型层出不穷,并展现出非凡的能力,可以有效地解决各种复杂问题。然而,这些模型通常需要大量的计算资源和内存,导致运行时资源消耗较高,限制了其在某些场景下的应用,让很多研究者望而却步。本项目使用通俗易懂的语言介绍模型的剪枝、量化、知识蒸馏等压缩方法,让更多的小白能更快了解到模型压缩技术。 项目地址:https://github.com/bupt-ai-club/awesome-compression
立项理由
目前网上关于模型压缩的相关资料比较驳杂,初学者很难找到一个简单优质的的中文入门教程来学习。本项目借鉴MIT 6.5940 TinyML and Efficient Deep Learning Computing,提供模型压缩的入门教程,降低模型压缩的学习门槛。在教程中,您将了解不同的压缩方法,通过实践和示例,学习如何应用这些方法来压缩深度学习模型,以满足实际应用需求。
项目受众
本项目适合以下学习者:
项目亮点
项目规划
各章节负责人
项目负责人
负责人:陈玉立 邮箱:chenyuli@bupt.edu.cn
备注:发起立项申请后DOPMC成员将会在7天内给出审核意见,若7天内无反对意见则默认立项通过~