# 算子库
跨平台高性能通用算子库。形式为 C 接口动态库。
采用二段式算子设计,每个算子都实现并对外暴露以下的 C 接口:
第一阶段:构造算子 Descriptor。用户提供的算子名称、硬件、以及算子配置(如计算的数据类型、计算排布等),相应模组会被 load 到硬件上。
void* createOpDescriptor(Device, void *config);
第二阶段:计算。根据一阶段的 Descriptor,执行相应计算,用户需要提供输入输出张量,以及硬件计算流(CPU 为 NULL)。
void op(void *descriptor, Tensor output, Tensor input, void *stream);
销毁 Descriptor。
void destroyOpDescriptor(void *descriptor);
xmake f -v
xmake f --cpu=true -cv
需要指定 CUDA 路径, 一般为 CUDA_HOME
或者 CUDA_ROOT
。
xmake f --nv-gpu=true --cuda=$CUDA_HOME -cv
xmake f --cambricon-mlu=true -cv
xmake
INFINI_ROOT
export INFINI_ROOT=[PATH_TO_LIBRARY]
cd operatorspy/tests
python operator_name.py
├── xmake.lua # xmake 构建脚本
├── include
│ ├── ops
│ │ ├── [operator_name].h # 对外暴露的算子 C 接口定义,descriptor 定义
│ ├── tensor
│ │ ├── tensor_descriptor.h # 对外暴露的张量 descriptor 定义
│ ├── *.h # 对外暴露的核心结构体定义
├── src
│ ├── devices
│ │ ├── [device_name]
│ │ ├── *.cc/.h # 特定硬件(如 cpu、英伟达)通用代码
│ ├── ops
│ │ ├── utils.h # 全算子通用代码 (如 assert)
│ │ ├── [operator_name] # 算子实现目录
│ │ ├── operator.cc # 算子 C 接口实现 (根据 descriptor 调用不同的算子实现)
│ │ ├── [device_name]
│ │ │ ├── *.cc/.h/... # 特定硬件的算子实现代码
│ ├── *.h # 核心结构体定义
│
├── operatorspy # Python 封装以及测试脚本
├── tests
│ ├── operator_name.py # 测试脚本
├── *.py # Python 封装代码
src/device.h
和 operatorspy/devices.py
中增加新的硬件类型,注意两者需要一一对应;xmake.lua
中增加新硬件的编译选项以及编译方式;src/ops/devices/[device_name]
下编写特定硬件的通用代码;src/ops/[operator_name]
增加创建/销毁算子描述符、算子计算的C接口,注意C接口header使用__C __export
前缀;src/ops/[operator_name]/[device_name]
增加算子在各硬件的实现代码;operatorspy/tests/[operator_name].py
增加算子测试;