未验证 提交 bed04497 编写于 作者: skywalk8163's avatar skywalk8163 提交者: GitHub

Update DyGraph.md

改正拼写错误,学习旅改成学习率
上级 3c470caa
...@@ -240,7 +240,7 @@ from paddle.imperative import to_variable ...@@ -240,7 +240,7 @@ from paddle.imperative import to_variable
paddle.enable_imperative() paddle.enable_imperative()
# 定义MNIST类的对象 # 定义MNIST类的对象
mnist = MNIST() mnist = MNIST()
# 定义优化器为AdamOptimizer,学习旅learning_rate为0.001 # 定义优化器为AdamOptimizer,学习率learning_rate为0.001
# 注意命令式编程下必须传入parameter_list参数,该参数为需要优化的网络参数,本例需要优化mnist网络中的所有参数 # 注意命令式编程下必须传入parameter_list参数,该参数为需要优化的网络参数,本例需要优化mnist网络中的所有参数
adam = AdamOptimizer(learning_rate=0.001, parameter_list=mnist.parameters()) adam = AdamOptimizer(learning_rate=0.001, parameter_list=mnist.parameters())
``` ```
...@@ -267,7 +267,7 @@ from paddle.imperative import to_variable ...@@ -267,7 +267,7 @@ from paddle.imperative import to_variable
paddle.enable_imperative() paddle.enable_imperative()
# 定义MNIST类的对象 # 定义MNIST类的对象
mnist = MNIST() mnist = MNIST()
# 定义优化器为AdamOptimizer,学习旅learning_rate为0.001 # 定义优化器为AdamOptimizer,学习率learning_rate为0.001
# 注意命令式编程下必须传入parameter_list参数,该参数为需要优化的网络参数,本例需要优化mnist网络中的所有参数 # 注意命令式编程下必须传入parameter_list参数,该参数为需要优化的网络参数,本例需要优化mnist网络中的所有参数
adam = AdamOptimizer(learning_rate=0.001, parameter_list=mnist.parameters()) adam = AdamOptimizer(learning_rate=0.001, parameter_list=mnist.parameters())
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册