huawei-noah / bolt

Bolt is a deep learning library with high performance and heterogeneous flexibility.
https://huawei-noah.github.io/bolt/
MIT License
918 stars 160 forks source link

模型功耗分析 #54

Open happy-ngh opened 3 years ago

happy-ngh commented 3 years ago

是否有FP16, INT8, Binary相同结构下的功耗对比分析数据?

jianfeifeng commented 3 years ago

目前没有。

yuxianzhi commented 3 years ago

这个是birealnet18在arm CPU大核上fp16和fp16+bnn的功耗对比,在小核上差异更大

image

happy-ngh commented 3 years ago

这个是birealnet18在arm CPU大核上fp16和fp16+bnn的功耗对比,在小核上差异更大

image

方便提供下CPU型号吗?另外,这里的fp16+1是指bi-real BNN Conv计算部分是BNN,其余部分为BNN?额外再问一个,FP32的是否方便测试下?

happy-ngh commented 3 years ago

这个是birealnet18在arm CPU大核上fp16和fp16+bnn的功耗对比,在小核上差异更大

image

非常感谢~

yuxianzhi commented 3 years ago

这个是birealnet18在arm CPU大核上fp16和fp16+bnn的功耗对比,在小核上差异更大 image

方便提供下CPU型号吗?另外,这里的fp16+1是指bi-real BNN Conv计算部分是BNN,其余部分为BNN?额外再问一个,FP32的是否方便测试下?

这个是一个合作方测试的,应该是Armv8.2以上的CPU,kirin 990?

Conv算子是BNN,其余算子为FP16

Bolt目前arm只支持最优的fp16+1,fp32+1是弱于fp16+1的。

因为网络权限问题,通知邮箱不能及时登录,我们有一个QQ群,可以在群里问答833345709。