在部署模型时,对于输入数据的预处理是一个非常耗时的操作,其实可以将预处理一同打包到模型中,在转换为ONNX或者Tensorrt模型后这些操作就可以随着模型一起被加速执行。
以最简单的归一化操作为例
归一化Module如下:
1 | class Normalize(torch.nn.Module): |
之后修改模型的inti和forward函数即可
1 | class MyModel(nn.Module): |
在部署模型时,对于输入数据的预处理是一个非常耗时的操作,其实可以将预处理一同打包到模型中,在转换为ONNX或者Tensorrt模型后这些操作就可以随着模型一起被加速执行。
以最简单的归一化操作为例
归一化Module如下:
1 | class Normalize(torch.nn.Module): |
之后修改模型的inti和forward函数即可
1 | class MyModel(nn.Module): |
在处理数据时,时常会遇到需要处理json数据的情况, 可以使用get_json_object
, regexp_replace
, split
来组合对json数组进行处理
有时我们无法确定一段代码会抛出何种异常,但是又希望能捕获这些异常
在使用triton时,可以使用shared memory方式加速数据传输的过程
由于服务器依赖比较老旧,因此需要重新安装各种依赖
在子类中,可以声明一个和父类相同的函数,此时父类函数是否标记为virtual将会影响这一行为
调试plan文件的时候经常需要输出相关信息,在这里分享一个方便的程序脚本,可以输出每个输入输出节点的相关信息
python中的各种import方式
在开发过程中,我们有时需要在python中调用诸如ffmpeg这样的命令。此时就不可避免的需要用到pipe。