diff --git a/demo/quant/quant_embedding/README.md b/demo/quant/quant_embedding/README.md index 5072e4795b2081af1b291d6ae113eb1189738eba..0cace30397f0a471bf4a944a0a98192430d5c259 100755 --- a/demo/quant/quant_embedding/README.md +++ b/demo/quant/quant_embedding/README.md @@ -1,6 +1,6 @@ # Embedding量化示例 -本示例介绍如何使用Embedding量化的接口 [paddleslim.quant.quant_embedding]() 。``quant_embedding``接口将网络中的Embedding参数从``float32``类型量化到 ``8-bit``整数类型,在几乎不损失模型精度的情况下较少模型的存储空间和显存占用。 +本示例介绍如何使用Embedding量化的接口 [paddleslim.quant.quant_embedding]() 。``quant_embedding``接口将网络中的Embedding参数从``float32``类型量化到 ``8-bit``整数类型,在几乎不损失模型精度的情况下减少模型的存储空间和显存占用。 接口如下: ``` @@ -25,14 +25,14 @@ quant_embedding(program, place, config, scope=None)
-图3:应用ConvertToInt8Pass后的结果
+图1:量化前的模型结构
-图3:应用ConvertToInt8Pass后的结果
+图2: 量化后的模型结构