datawhalechina / DOPMC

Datawhale 开源项目管理委员会(Datawhale Open-source Project Management Committee,简称DOPMC)
203 stars 21 forks source link

fun-transformer #299

Open Spr1ng7 opened 5 days ago

Spr1ng7 commented 5 days ago

你是否已经阅读并同意《Datawhale开源项目指南》?

你是否已经阅读并同意《Datawhale开源项目行为准则》?

项目简介

  1. 使用基础的Numpy等科学计算库实现简单的Transformer
  2. 完成完整的Transformer编码器和解码器
  3. 使用Transformer模型实现在NLP任务中的应用

立项理由

Transformer模型作为近年来最具影响力的神经网络结构,已经在诸多NLP任务中展现出优异的性能。本项目旨在从零开始手撕Transformer,深入剖析其原理,为深度学习领域的研究者和工程师提供一套完整的Transformer实现方案。

项目受众

  1. 深度学习研究者:本项目适合对Transformer模型感兴趣的研究者,通过项目实践,加深对Transformer原理的理解。
  2. NLP工程师:项目成果包含解读代码和Q&A问答,可为工程师在实际工作中或者求职过程中,对应用Transformer模型提供参考和借鉴。
  3. 计算机相关专业学生:本项目有助于学生掌握注意力机制,通过解读示意图、文字和公式推导,加深理论理解,为未来职业发展奠定基础。

项目亮点

1.完全从零开始:本项目使用基础的Numpy等科学计算库实现Transformer,无需依赖任何深度学习框架,有助于深入理解模型原理。

  1. 完整性:项目包含Transformer编码器和解码器的实现,涵盖了Transformer的核心组成部分。
  2. 实用性:项目将Transformer模型应用于NLP任务,验证了模型在实际场景中的有效性。

项目规划

第一章 Transformer模型背景

第二章 Transformer模型架构详解

第三章 位置编码与注意力机制

第四章 Transformer的训练过程

第五章 使用Numpy实现Transformer

第六章 Transformer模型在NLP中的应用

预计完成时间:2024年11月23日

已完成内容

No response

项目负责人GitHub主页链接

负责人: 罗清泉 Github: https://github.com/Spr1ng7 联系方式:VX-wxid_8q5hui72e0f022

❗❗❗注意事项❗❗❗:为了便于我们跟你取得联系,请加务必加我们的微信:at-Sm1les(备注你来自于项目立项即可),发起立项申请后DOPMC成员将会在7天内给出审核意见并评论在该Issue,若7天内无反对意见则默认立项通过,如有任何疑问或者需要帮助均可随时联系微信:at-Sm1les

Sm1les commented 4 days ago

12月份必开组队学习课程,免审核