JunningWu / AIChip

Aiming at an AI Chip based on RISC-V and NVDLA.
Apache License 2.0
21 stars 4 forks source link

学习日志:2018-1 #10

Open JunningWu opened 6 years ago

JunningWu commented 6 years ago

2018-1-3

论文学习

NVDLAonFPGA

NVDLA 代码学习

NVDLA模拟器VP

NVDLA软件SW Stack

利用Caffe的例程,训练了LeNet的模型,在NVDLA的模拟器上面运行,测试数据采用NVDLA提供的digits,可以运行,但是仍然有很多错误,log中也存在一些不理解的地方。 在NVDLA_SW上面提交了issue,但无人回答。https://github.com/nvdla/sw/issues/10 看了一天NVDLA SW的代码,根据处理流程浏览各个子函数的内容,发现工程量巨大! log文件上传到了版本库:https://github.com/wujunning2011/AIChip/blob/nvdla_sw_vp_log/lenet.1w.five.log 其中一条错误(应该是错误),明天一定得找出来。 (no desc get due to index==-1

Caffe

JunningWu commented 6 years ago

2018-1-3

论文学习

NVDLAonFPGA

NVDLA 代码学习 image

学习SDP代码,对SDP的整体架构,以及主要功能进行学习,三个主要的计算单元,SDP_CORE_X和SDP_CORE_Y,SDP_CORE_C还在学习过程中。模块代码中包括更多的预处理,需要理解其含义。 而对于SDP的配置寄存器,也通过配置寄存器部分的代码进行了学习,对SDP整体功能的理解也大有裨益。 具体学习记录,可参考issue #11

NVDLA模拟器VP 模拟器和SW的工作,没有进展。

NVDLA软件SW Stack

Caffe

JunningWu commented 6 years ago

2018-1-10

论文学习 《ScaleDeep: A Scalable Compute Architecture for Learning and Evaluating Deep Networks》,ISCA2017. 论文针对深度神经网络的训练部分进行针对性优化,提出了一个可扩展服务器架构,且深入分析了深度神经网络中卷积层,采样层,全连接层等在计算密集度和访存密集度方面的不同,设计了两种处理器core架构,计算密集型的任务放在了comHeavy核中,包含大量的2D乘法器和累加器部件,而对于访存密集型任务则放在了memHeavy核中,包含大量SPM存储器和tracker同步单元,既可以作为存储单元使用,又可以进行计算操作,包括ReLU,tanh等。而一个SCALEDEEP Chip则可以有不同配置下的两类处理器核组成。然后再组成计算簇。论文中所用的处理平台包括7032个处理器tile。论文作者针对深度神经网络设计了编译器,完成网络映射和代码生成,同时设计了设计空间探索的模拟器平台,可以进行性能和功耗的评估,性能则得益于时钟精确级的模拟器,功耗评估则从DC中提取模块的网表级的参数模型。 image image image

Andrawzyf commented 6 years ago

楼主可以详细写写NVDLA模拟器VP就好了。。哈哈哈