未验证 提交 5d5b4ad4 编写于 作者: 石晓伟 提交者: GitHub

update doc/fluid/advanced_usage/deploy/inference/native_infer.md (#1018)

上级 7264ca10
...@@ -221,9 +221,8 @@ const int num_threads = 10; // 假设有 10 个服务线程 ...@@ -221,9 +221,8 @@ const int num_threads = 10; // 假设有 10 个服务线程
std::vector<std::thread> threads; std::vector<std::thread> threads;
std::vector<decl_type(main_predictor)> predictors; std::vector<decl_type(main_predictor)> predictors;
// 线程外创建所有的predictor // 将克隆的 predictor 放入 vector 供线程使用
predictors.emplace_back(std::move(main_predictor)); for (int i = 0; i < num_threads; i++) {
for (int i = 1; i < num_threads; i++) {
predictors.emplace_back(main_predictor->Clone()); predictors.emplace_back(main_predictor->Clone());
} }
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册