huawei-noah / Efficient-AI-Backbones

Efficient AI Backbones including GhostNet, TNT and MLP, developed by Huawei Noah's Ark Lab.
3.9k stars 693 forks source link

Reproduce VIG based on PaddlePaddle #108

Open ZhangJianLab opened 1 year ago

ZhangJianLab commented 1 year ago

作者您好,我这边简单复现您的VIG工作,使用PaddlePaddle框架复现了VIG-s模型。准确率为Validation Acc@1: 0.8030, Validation Acc@5: 0.9511。 项目地址:https://aistudio.baidu.com/aistudio/projectdetail/4288323?contributionType=1 感谢你们精彩的工作!

fengsxy commented 1 year ago

作者您好,我这边简单复现您的VIG工作,使用PaddlePaddle框架复现了VIG-s模型。准确率为Validation Acc@1: 0.8030, Validation Acc@5: 0.9511。 项目地址:https://aistudio.baidu.com/aistudio/projectdetail/4288323?contributionType=1 感谢你们精彩的工作!

您好我想问下 论文复现 代码训练的时间,因为原文只说了使用八台V100,但没有说时间, 我有两个疑问: 1.首先是网络的算力瓶颈在哪?因为据我所知图卷积算法以及1*1卷积并不会成位算力瓶颈,所以算力瓶颈是源自构图的地方吗? 2.网络过程中使用KNN构图所使用的库是numpy会不会成为网络运行的瓶颈?

qdd1234 commented 1 year ago

作者您好,我这边简单复现您的VIG工作,使用PaddlePaddle框架复现了VIG-s模型。准确率为Validation Acc@1: 0.8030, Validation Acc@5: 0.9511。 项目地址:https://aistudio.baidu.com/aistudio/projectdetail/4288323?contributionType=1 感谢你们精彩的工作!

您好我想问下 论文复现 代码训练的时间,因为原文只说了使用八台V100,但没有说时间, 我有两个疑问: 1.首先是网络的算力瓶颈在哪?因为据我所知图卷积算法以及1*1卷积并不会成位算力瓶颈,所以算力瓶颈是源自构图的地方吗? 2.网络过程中使用KNN构图所使用的库是numpy会不会成为网络运行的瓶颈?

您好,PaddlePaddle模型的复现是将Pytorch权重直接转成PaddlePaddle的,但由于二者框架算子上有区别,导致复现准确率差了2个点左右。AIstudio平台上有四卡的服务器,您可以试一试。另外,目前我们也在从头开始训练,使用四张T4(16 GB memory, bs=64)训练需要2周半左右时间。

abhigoku10 commented 1 year ago

@ZhangJianLab i have few queries

  1. did u train the vig for higher resolution like 512 and other size
  2. did u train the vig for object detection task ? THanks in advance