0%

有时我们无法确定一段代码会抛出何种异常,但是又希望能捕获这些异常

阅读全文 »

通常,使用shutil.rmtree就可以轻易的删除目录,但是量变产生质变,当目录中的文件数量达到数百万时,我们需要更加快速和平稳的方式

优化的核心思想就是要尽可能减少一切不必要的io

阅读全文 »

近年来,在深度学习模型的部署中,涌现了许多新技术,从最早的tf/pytorch直接部署,到onnx,到trnsorrt(trt),模型的运行效率越来越高。但即便是使用trt方式部署模型,也依旧无法避免巨大的工作量。在使用c++部署trt时,代码量较大,还需要预处理困难。而使用python部署trt,受限于python的GIL问题,需要同时部署多个模型,又失去了trt节省显存的优点。同时,不论使用何种方式,都无法避免面对组batch等问题,整个系统的工程实现会变得非常复杂。
在这样的情况下,triton应运而生一站式的帮助我们解决了几乎所有的工程问题,作为一款强大的模型执行引擎,triton支持几乎所有主流的网络模型,对于pytorch,tensorflow,onnx,trt都有良好的支持。

本文将从trt/onnx模型的部署介绍triton的部署流程。

阅读全文 »