From 60849db14ff1a395f423634374daa2ed44ef995e Mon Sep 17 00:00:00 2001 From: Yan Chunwei Date: Sun, 22 Sep 2019 10:09:38 +0800 Subject: [PATCH] refine markdown format for api list (#2114) --- _all_pages/develop/cxx_api_doc.md | 40 +++++++++++++++--------------- _all_pages/develop/java_api_doc.md | 30 +++++++++++----------- 2 files changed, 35 insertions(+), 35 deletions(-) diff --git a/_all_pages/develop/cxx_api_doc.md b/_all_pages/develop/cxx_api_doc.md index df3a36610d..e480d2ba6b 100644 --- a/_all_pages/develop/cxx_api_doc.md +++ b/_all_pages/develop/cxx_api_doc.md @@ -60,7 +60,7 @@ config.set_power_mode(LITE_POWER_HIGH); std::shared_ptr predictor = CreatePaddlePredictor(config); ``` -> **set_model_dir(model_dir)** +## `set_model_dir(model_dir)` 设置模型文件夹路径,当需要从磁盘加载模型时使用。 @@ -74,7 +74,7 @@ std::shared_ptr predictor = CreatePaddlePredictor -> **model_dir()** +## `model_dir()` 返回设置的模型文件夹路径。 @@ -88,7 +88,7 @@ std::shared_ptr predictor = CreatePaddlePredictor -> **set_model_buffer(model_buffer, model_buffer_size, param_buffer, param_buffer_size)** +## `set_model_buffer(model_buffer, model_buffer_size, param_buffer, param_buffer_size)` 设置模型、参数的内存地址,当需要从内存加载模型时使用。 @@ -121,7 +121,7 @@ std::shared_ptr predictor = CreatePaddlePredictor -> **model_from_memory()** +## `model_from_memory()` 是否从内存中加载模型,当使用`set_model_buffer`接口时返回`true` @@ -135,7 +135,7 @@ std::shared_ptr predictor = CreatePaddlePredictor -> **model_buffer()** +## `model_buffer()` 获取内存中模型结构数据。 @@ -149,7 +149,7 @@ std::shared_ptr predictor = CreatePaddlePredictor -> **param_buffer()** +## `param_buffer()` 获取内存中模型参数数据。 @@ -163,7 +163,7 @@ std::shared_ptr predictor = CreatePaddlePredictor -> **set_power_mode(mode)** +## `set_power_mode(mode)` 设置CPU能耗模式。若不设置,则默认使用`LITE_POWER_HIGH`。 @@ -179,7 +179,7 @@ std::shared_ptr predictor = CreatePaddlePredictor -> **power_mode()** +## `power_mode()` 获取设置的CPU能耗模式。 @@ -193,7 +193,7 @@ std::shared_ptr predictor = CreatePaddlePredictor -> **set_threads(threads)** +## `set_threads(threads)` 设置工作线程数。若不设置,则默认使用单线程。 @@ -209,7 +209,7 @@ std::shared_ptr predictor = CreatePaddlePredictor -> **threads()** +## `threads()` 获取设置的工作线程数。 @@ -264,7 +264,7 @@ for (int i = 0; i < ShapeProduction(output_tensor->shape()); i += 100) { } ``` -> **GetInput(index)** +## `GetInput(index)` 获取输入Tensor指针,用来设置模型的输入数据。 @@ -278,7 +278,7 @@ for (int i = 0; i < ShapeProduction(output_tensor->shape()); i += 100) { -> **GetOutput(index)** +## `GetOutput(index)` 获取输出Tensor的指针,用来获取模型的输出结果。 @@ -292,7 +292,7 @@ for (int i = 0; i < ShapeProduction(output_tensor->shape()); i += 100) { -> **Run()** +## `Run()` 执行模型预测,需要在***设置输入数据后***调用。 @@ -306,7 +306,7 @@ for (int i = 0; i < ShapeProduction(output_tensor->shape()); i += 100) { -> **GetVersion()** +## `GetVersion()` 用于获取当前lib使用的代码版本。若代码有相应tag则返回tag信息,如`v2.0-beta`;否则返回代码的`branch(commitid)`,如`develop(7e44619)`。 @@ -401,7 +401,7 @@ for (int i = 0; i < ShapeProduction(output_tensor->shape()); i += 100) { } ``` -> **Resize(shape)** +## `Resize(shape)` 设置Tensor的维度信息。 @@ -415,7 +415,7 @@ for (int i = 0; i < ShapeProduction(output_tensor->shape()); i += 100) { -> **shape()** +## `shape()` 获取Tensor的维度信息。 @@ -429,7 +429,7 @@ for (int i = 0; i < ShapeProduction(output_tensor->shape()); i += 100) { -> **data\()** +## `data()` ```c++ template @@ -456,7 +456,7 @@ output_tensor->data() -> **mutable_data\()** +## `mutable_data()` ```c++ template @@ -487,7 +487,7 @@ for (int i = 0; i < ShapeProduction(input_tensor->shape()); ++i) { -> **SetLoD(lod)** +## `SetLoD(lod)` 设置Tensor的LoD信息。 @@ -501,7 +501,7 @@ for (int i = 0; i < ShapeProduction(input_tensor->shape()); ++i) { -> **lod()** +## `lod()` 获取Tensor的LoD信息 diff --git a/_all_pages/develop/java_api_doc.md b/_all_pages/develop/java_api_doc.md index f378f7d6a2..b45dd7df9b 100644 --- a/_all_pages/develop/java_api_doc.md +++ b/_all_pages/develop/java_api_doc.md @@ -32,7 +32,7 @@ config.setThreads(1); PaddlePredictor predictor = PaddlePredictor.createPaddlePredictor(config); ``` -> **setModelDir(model_dir)** +## ``setModelDir(model_dir)`` 设置模型文件夹路径。 @@ -46,7 +46,7 @@ PaddlePredictor predictor = PaddlePredictor.createPaddlePredictor(config); -> **getModelDir()** +## `getModelDir()` 返回设置的模型文件夹路径。 @@ -60,7 +60,7 @@ PaddlePredictor predictor = PaddlePredictor.createPaddlePredictor(config); -> **setPowerMode(mode)** +## `setPowerMode(mode)` 设置CPU能耗模式。若不设置,则默认使用`LITE_POWER_HIGH`。 @@ -76,7 +76,7 @@ PaddlePredictor predictor = PaddlePredictor.createPaddlePredictor(config); -> **getPowerMode()** +## `getPowerMode()` 获取设置的CPU能耗模式。 @@ -90,7 +90,7 @@ PaddlePredictor predictor = PaddlePredictor.createPaddlePredictor(config); -> **setThreads(threads)** +## `setThreads(threads)` 设置工作线程数。若不设置,则默认使用单线程。 @@ -106,7 +106,7 @@ PaddlePredictor predictor = PaddlePredictor.createPaddlePredictor(config); -> **getThreads()** +## `getThreads()` 获取设置的工作线程数。 @@ -159,7 +159,7 @@ for (int i = 0; i < 1000; ++i) { -> **CreatePaddlePredictor(config)** +## `CreatePaddlePredictor(config)` ```java public static PaddlePredictor createPaddlePredictor(ConfigBase config); @@ -177,7 +177,7 @@ public static PaddlePredictor createPaddlePredictor(ConfigBase config); -> **getInput(index)** +## `getInput(index)` 获取输入Tensor,用来设置模型的输入数据。 @@ -191,7 +191,7 @@ public static PaddlePredictor createPaddlePredictor(ConfigBase config); -> **getOutput(index)** +## `getOutput(index)` 获取输出Tensor,用来获取模型的输出结果。 @@ -205,7 +205,7 @@ public static PaddlePredictor createPaddlePredictor(ConfigBase config); -> **run()** +## `run()` 执行模型预测,需要在***设置输入数据后***调用。 @@ -219,7 +219,7 @@ public static PaddlePredictor createPaddlePredictor(ConfigBase config); -> **getVersion()** +## `getVersion()` 用于获取当前lib使用的代码版本。若代码有相应tag则返回tag信息,如`v2.0-beta`;否则返回代码的`branch(commitid)`,如`develop(7e44619)`。 @@ -310,7 +310,7 @@ for (int i = 0; i < 1000; ++i) { } ``` -> **resize(dims)** +## `resize(dims)` 设置Tensor的维度信息。 @@ -324,7 +324,7 @@ for (int i = 0; i < 1000; ++i) { -> **shape()** +## `shape()` 获取Tensor的维度信息。 @@ -338,7 +338,7 @@ for (int i = 0; i < 1000; ++i) { -> **setData(data)** +## `setData(data)` 设置Tensor数据。 @@ -352,7 +352,7 @@ for (int i = 0; i < 1000; ++i) { -> **getFloatData()** +## `getFloatData()` 获取Tensor的底层float型数据。 -- GitLab