Created by: snowsteper
如题
当前通过fluid.io.load_inference_model的方式加载模型的时候,模型加载和实际的exe.run预测都需要在with fluid.scope_guard(inference_scope)结构下面,这导致流式预测的时候,每次都要加载一次模型 有没有可以把加载模型和实际预测操作分离的方式完成预测?