Skip to content

关于使用TensorRT-API搭建与onnx-tensorrt parser的性能差距问题 #4

@Oldpan

Description

@Oldpan

很感谢你们的分享~干货很多,有个小疑问想请教下:

  • 这一句中“除此之外我们发现网络结构中存在大量的Transpose+Reshape结构,这些结构是可以通过TensorRT API在设计网络的时候被合并的” ,基于API的搭建方式我理解的是你们去掉了一些多余的reshape操作(等价实现reshape但是用了更少的trt-layer),不过基于parse的方式搭建完network之后(network中包含Transpose->Reshape),会被内部trt优化成Transpose+Reshape结构,就和你使用nsight sys展示的一样,这其实已经合并多余的reshape/transpose吧,这个和直接使用API的方式合并,性能有差别吗?
  • 我理解的基于API和基于Parse的本质区别就是可以避免一些onnx的胶水、碎片算子,通过trt-plugin的方式修改onnx模型(将碎片算子合并为一个,比如layernorm)然后通过parse+plugin的方式转模型,应该和直接API+plugin的性能是一样的吧?

希望可以和大佬交流下!

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Type

    No type

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions