666DZY666 / micronet

micronet, a model compression and deploy lib. compression: 1、quantization: quantization-aware-training(QAT), High-Bit(>2b)(DoReFa/Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference)、Low-Bit(≤2b)/Ternary and Binary(TWN/BNN/XNOR-Net); post-training-quantization(PTQ), 8-bit(tensorrt); 2、 pruning: normal、regular and group convolutional channel pruning; 3、 group convolution structure; 4、batch-normalization fuse for quantization. deploy: tensorrt, fp32/fp16/int8(ptq-calibration)、op-adapt(upsample)、dynamic_shape
MIT License
2.22k stars 478 forks source link

Cooperation Proposal: 666DZY666/model-compression & PaddlePaddle #57

Open saxon-zh opened 4 years ago

saxon-zh commented 4 years ago

Dear 666DZY666:

您好,我是开源深度学习平台飞桨(PaddlePaddle)团队的张春雨,冒昧联系您,感谢您花时间阅读我们的邮件。飞桨(PaddlePaddle)以百度多年的深度学习技术研究和业务应用为基础,是中国首个开源开放的产业级深度学习平台(2016年开源至今),包含核心框架、基础模型库、端到端开发套件与工具组件。 我们关注到您作为开源社区优秀的引领者,一直持续回馈开源社区,创作了诸多颇受开发者喜爱的作品666DZY666/model-compression。飞桨社区一直也秉承着开源开放的理念,希望可以拥抱更多优秀的开发者与作品。如您感兴趣,我们诚邀您与我们共同为您的作品增加对于飞桨框架的适配,以便更多飞桨社区的开发者可学习和使用,我们将竭诚为您提供必要的技术支持(为您专门服务)和迁移支持(降低迁移代价)。

我们十分期待与您的合作,诚邀您莅临由深度学习技术及应用国家工程实验室与百度联合主办的“WAVE SUMMIT+2020”开发者造物节(2020年12月20日于北京),向开源社区的开发者们分享您的开源技术内容。本次“WAVE SUMMIT+2020”上,人工智能专家将分享深度学习时代的最新技术发展与产业落地经验。深度学习开源开放平台——飞桨也将带来多项全新升级,更好地将深度学习技术赋能产业,与生态伙伴携手推进产业智能化进一步发展,与开发者共促开源技术社区发展。

我们也很期待能与您联合开设技术分享的内容,让更多开发者了解和学习您的作品。飞桨目前有较为完备的课程体系,我们很期待在其中也能加入您的优秀作品。

除此之外,我们也诚邀您加入PPDE飞桨开发者技术专家(PaddlePaddle Developers Experts),向更多开发者们传递开源开放的理念,促进中国开源社区的发展!我们也为PPDE飞桨开发者技术专家准备了一系列权益,包括个人影响力塑造、参与全球游学、顶会交流等,有机会进入百度孵化器,还有机会参与顶级项目支持,比如拥有1000万基金、1000万算力、100亿流量加持的星辰计划等。

我们期待与您的合作! 如您有意向,欢迎随时联系。 手机:+86 13311535619 微信:同手机号 邮箱:zhangchunyu@baidu.com

飞桨(PaddlePaddle)官方网站:https://www.paddlepaddle.org.cn 飞桨(PaddlePaddle)开源仓库:https://github.com/PaddlePaddle/Paddle