未验证 提交 5f26a57c 编写于 作者: T TeslaZhao 提交者: GitHub

Update PIPELINE_SERVING_CN.md

上级 00de7e3b
......@@ -7,7 +7,7 @@
- [典型示例](PIPELINE_SERVING_CN.md#3.典型示例)
- [高阶用法](PIPELINE_SERVING_CN.md#4.高阶用法)
- [日志追踪](PIPELINE_SERVING_CN.md#5.日志追踪)
- [性能分析与优化](PIPELINE_SERVING_CN.md#6.性能优化)
- [性能分析与优化](PIPELINE_SERVING_CN.md#6性能分析与优化)
在许多深度学习框架中,Serving通常用于单模型的一键部署。在AI工业大生产的背景下,端到端的深度学习模型当前还不能解决所有问题,多个深度学习模型配合起来使用还是解决现实问题的常规手段。但多模型应用设计复杂,为了降低开发和维护难度,同时保证服务的可用性,通常会采用串行或简单的并行方式,但一般这种情况下吞吐量仅达到可用状态,而且GPU利用率偏低。
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册