Open Forwil opened 4 years ago
1、tensorflow几乎没有进展 @shanjun 2、autotune需要和框架相关 3、mxnet2onnx @yongmin 4、模型list需要规范维护,写到readme里面。get model可以较为自由。 5、relay frontend合并 @liaojianjin 6、统一以onnx为输入,有问题尽快提,每个框架的负责人都需要尝试2onnx并总结问题。 7、下周一,yufengwei会来试用一下这几个库
下一步: 1、继续完善model zoo 2、评估“tvm大规模测试表”里面的速度是不是足够牛逼: 1、arm/x86/gpu上的SOTA速度,按之前的框架分工,各自去熟悉对应平台的最好的inference库。 2、arm:ncnn,tengine,paddle-lite x86:intel_caffe,openvino,paddle-lite gpu:tensorRT7.0
1、tensorflow几乎没有进展 @shanjun 几乎要搞定了,后面再对下 2、autotune需要和框架相关 可以保证1阶段只产出onnx模型,autotune与框架无关 3、mxnet2onnx @yongmin done 4、模型list需要规范维护,写到readme里面。get model可以较为自由。 https://shimo.im/sheets/pRgJqWXGkgWGQYv3/MODOC 5、relay frontend合并 @liaojianjin relay frontend只保留onnx 6、统一以onnx为输入,有问题尽快提,每个框架的负责人都需要尝试2onnx并总结问题。 done,除了版本对齐之外 tvm 0.6.0 mxnet 1.5.1 onnx = 1.3.0 pytorch 1.3/1.4 onnx = 1.5.0/1.6.0 tensorflow 1.14, onnx = 1.5.0/1.6.0 模型名字的输入输出需要对应,才可以跑 输入input shape必须对应 7、下周一,yufengwei会来试用一下这几个库 doing
流程
1、获取模型(model_zoo.model_list) (各自负责)
2、从model_zoo中初始化relay (勇民)
3、relay auto tune (勇民)
4、速度测试 (jianjin)
5、精度测试
分工