未验证 提交 8881406d 编写于 作者: Z zhoukunsheng 提交者: GitHub

Create tf.clip_by_global_norm.md

上级 6263a03f
## tf.clip_by_global_norm
### [tf.clip_by_global_norm](https://www.tensorflow.org/api_docs/python/tf/clip_by_global_norm)
```python
tf.clip_by_global_norm(
t_list,
clip_norm,
use_norm=None,
name=None
)
```
### [paddle.fluid.clip.GradientClipByGlobalNorm](http://paddlepaddle.org/documentation/docs/zh/develop/api_cn/clip_cn.html#gradientclipbyglobalnorm)
```python
paddle.fluid.clip.GradientClipByGlobalNorm(
clip_norm,
group_name='default_group'
)
```
### 功能差异
#### 使用方式
TensorFlow:采用函数调用形式,输入需要执行global_norm裁剪的tensor,返回裁剪后的结果;
PaddlePaddle:采用类对象定义形式,使用`set_gradient_clip`函数设置`GradientClipByGlobalNorm`对象为裁剪方式。
#### 其他
TensorFlow:使用`use_norm`支持外部设置global_norm,若没有设置则从`t_list`计算得到;
PaddlePaddle:不支持外部设置。
### 代码示例
```
# 获取待裁剪的tensor列表
p_g_clip = fluid.backward.append_backward(loss=avg_cost_clip)
with fluid.program_guard(main_program=prog_clip):
# 设置裁剪方式
fluid.clip.set_gradient_clip(
fluid.clip.GradientClipByGlobalNorm(clip_norm=2.0))
# 执行裁剪并获取结果
p_g_clip = fluid.clip.append_gradient_clip_ops(p_g_clip)
```
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册