Open
Description
感谢您参与 X2Paddle 社区! 问题模版为了 X2Paddle 能更好的迭代,例如新功能发布、 RoadMaps 和错误跟踪. 😸
问题描述
- “opt 生成的模型只是标记了华为 Kirin NPU 支持的 Paddle 算子,并没有真正生成华为 Kirin NPU 模型”,这里标记的作用什么?(https://www.paddlepaddle.org.cn/lite/v2.12/demo_guides/huawei_kirin_npu.html)
- opt工具的优化跟具体后端是绑定的吗?是否需要选则后端类型。 例如:子图融合,混合调度,kernel选优?
- 混合调度的具体含义是什么?
具体信息
- 转换模型后用处
- 使用 Paddle-Lite 做移动端推理
- 使用 Paddle 框架/ PaddleInference 推理预测
- 转换预训练参数,再使用 Paddle 进行模型开发
- 模型来源
YOLOX:https://github.com/Megvii-BaseDetection/YOLOX - 应用场景
用于移动端业务下的检测业务 - 版本信息
PaddlePaddle => ❔3.0.0
X2Paddle => :1.6.0
来源框架版本(PyTorch/TF/ONNX/Caffe) => :onnx - 您的联系方式(邮箱/微信/电话)
Metadata
Metadata
Assignees
Labels
No labels