Open Spr1ng7 opened 5 days ago
Transformer模型作为近年来最具影响力的神经网络结构,已经在诸多NLP任务中展现出优异的性能。本项目旨在从零开始手撕Transformer,深入剖析其原理,为深度学习领域的研究者和工程师提供一套完整的Transformer实现方案。
1.完全从零开始:本项目使用基础的Numpy等科学计算库实现Transformer,无需依赖任何深度学习框架,有助于深入理解模型原理。
第一章 Transformer模型背景
第二章 Transformer模型架构详解
第三章 位置编码与注意力机制
第四章 Transformer的训练过程
第五章 使用Numpy实现Transformer
第六章 Transformer模型在NLP中的应用
预计完成时间:2024年11月23日
No response
负责人: 罗清泉 Github: https://github.com/Spr1ng7 联系方式:VX-wxid_8q5hui72e0f022
12月份必开组队学习课程,免审核
你是否已经阅读并同意《Datawhale开源项目指南》?
你是否已经阅读并同意《Datawhale开源项目行为准则》?
项目简介
立项理由
Transformer模型作为近年来最具影响力的神经网络结构,已经在诸多NLP任务中展现出优异的性能。本项目旨在从零开始手撕Transformer,深入剖析其原理,为深度学习领域的研究者和工程师提供一套完整的Transformer实现方案。
项目受众
项目亮点
1.完全从零开始:本项目使用基础的Numpy等科学计算库实现Transformer,无需依赖任何深度学习框架,有助于深入理解模型原理。
项目规划
第一章 Transformer模型背景
第二章 Transformer模型架构详解
第三章 位置编码与注意力机制
第四章 Transformer的训练过程
第五章 使用Numpy实现Transformer
第六章 Transformer模型在NLP中的应用
预计完成时间:2024年11月23日
已完成内容
No response
项目负责人GitHub主页链接
负责人: 罗清泉 Github: https://github.com/Spr1ng7 联系方式:VX-wxid_8q5hui72e0f022
❗❗❗注意事项❗❗❗:为了便于我们跟你取得联系,请加务必加我们的微信:at-Sm1les(备注你来自于项目立项即可),发起立项申请后DOPMC成员将会在7天内给出审核意见并评论在该Issue,若7天内无反对意见则默认立项通过,如有任何疑问或者需要帮助均可随时联系微信:at-Sm1les