Layer_cn.rst 12.6 KB
Newer Older
H
Hao Wang 已提交
1 2 3 4 5
.. _cn_api_fluid_dygraph_Layer:

Layer
-------------------------------

Y
Youwei Song 已提交
6
.. py:class:: paddle.fluid.dygraph.Layer(name_scope=None, dtype=core.VarDesc.VarType.FP32)
H
Hao Wang 已提交
7

8
基于OOD实现的动态图Layer,包含该Layer的参数、前序运行的结构等信息。
H
Hao Wang 已提交
9 10

参数:
Y
Youwei Song 已提交
11
    - **name_scope** (str,可选) - Layer内部参数命名而采用的名称前缀。如果前缀为“mylayer”,在一个类名为MyLayerLayer中,参数名为“mylayer_0.w_n”,其中w是参数的名称,n为自动生成的具有唯一性的后缀。如果为None,前缀名将为小写的类名。默认值为None
12
    - **dtype** (str|core.VarDesc.VarType, 可选) - Layer中参数数据类型。如果设置为str,则可以是“bool”,“float16”,“float32”,“float64”,“int8”,“int16”,“int32”,“int64”,“uint8”或“uint16”。默认值为 ``core.VarDesc.VarType.FP32`` 
H
Hao Wang 已提交
13

14
返回:无
H
Hao Wang 已提交
15

16 17 18 19 20 21 22 23 24 25 26 27
.. py:method:: train()

将此层及其所有子层设置为训练模式。这只会影响某些模块,如DropoutBatchNorm

返回:无

.. py:method:: eval()

将此层及其所有子层设置为预测模式。这只会影响某些模块,如DropoutBatchNorm

返回:无

H
Hao Wang 已提交
28 29
.. py:method:: full_name()

30
Layer的全名。组成方式为: ``name_scope`` + / + MyLayer.__class__.__name__ 
H
Hao Wang 已提交
31

32
返回:Layer的全名
H
Hao Wang 已提交
33

34
返回类型:str
H
Hao Wang 已提交
35

36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129
.. py:method:: register_forward_pre_hook(hook)

Layer注册一个 ``forward pre-hook`` 函数,该 ``hook`` 函数将会在 ``forward`` 函数调用之前被调用。

``hook`` 函数具有以下形式:它的 ``input``  ``Layer``  ``input`` ,并且可以返回一个元组或者单个修改值;如果返回单个修改值,则将值包装到一个元组中。用户可以使用该函数来查看或修改 ``Layer`` ``forward`` 函数的输入。

hook(Layer, input) -> None or modified input

参数:
    - **hook** (function) - 被注册为 ``forward pre-hook`` 的函数

返回:一个 ``HookRemoveHelper`` 类对象,可通过调用 ``hook_remove_helper.remove()`` 来删除注册的hook函数。

返回类型: ``HookRemoveHelper`` 类对象

**代码示例**

.. code-block:: python

    import paddle.fluid as fluid
    import numpy as np

    # forward_pre_hook函数修改了layer的输入:input = input * 2
    def forward_pre_hook(layer, input):
        # 改变输入值
        input_return = (input[0] * 2)
        return input_return

    with fluid.dygraph.guard():
        linear = fluid.Linear(13, 5, dtype="float32")

        # 注册hook
        forward_pre_hook_handle = linear.register_forward_pre_hook(forward_pre_hook)

        value0 = np.arange(26).reshape(2, 13).astype("float32")
        in0 = fluid.dygraph.to_variable(value0)
        out0 = linear(in0)

        # 移除hook
        forward_pre_hook_handle.remove()

        value1 = value0 * 2
        in1 = fluid.dygraph.to_variable(value1)
        out1 = linear(in1)

        # hook改变了layer的输入(input = input * 2),所以out0等于out1
        assert (out0.numpy() == out1.numpy()).any()

.. py:method:: register_forward_post_hook(hook)

Layer注册一个 ``forward post-hook`` 函数,该 ``hook`` 函数将会在 ``forward`` 函数调用之后被调用。

``hook`` 函数具有以下形式,它的 ``input``  ``output``  ``Layer``  ``input``  ``output`` 。用户可以用该函数来查看和修改 ``Layer`` ``forward`` 函数的输出。

hook(Layer, input, output) -> None or modified output

参数:
    - **hook** (function) - 被注册为 ``forward post-hook`` 的函数

返回:一个 ``HookRemoveHelper`` 类对象,可通过调用 ``hook_remove_helper.remove()`` 来删除注册的hook函数。

返回类型: ``HookRemoveHelper`` 类对象

**代码示例**

.. code-block:: python

    import paddle.fluid as fluid
    import numpy as np

    # forward_post_hook函数改变了layer的输出:output = output * 2
    def forward_post_hook(layer, input, output):
        # 改变输出值
        return output * 2

    with fluid.dygraph.guard():
        linear = fluid.Linear(13, 5, dtype="float32")

        # 注册hook
        forward_post_hook_handle = linear.register_forward_post_hook(forward_post_hook)

        value1 = np.arange(26).reshape(2, 13).astype("float32")
        in1 = fluid.dygraph.to_variable(value1)

        out0 = linear(in1)

        # remove the hook
        forward_post_hook_handle.remove()

        out1 = linear(in1)

        # hook改变了layer的输出(output = output * 2),所以out0等于out1 * 2
        assert (out0.numpy() == (out1.numpy()) * 2).any()

Y
Youwei Song 已提交
130
.. py:method:: create_parameter(shape, attr=None, dtype="float32", is_bias=False, default_initializer=None)
H
Hao Wang 已提交
131

132
Layer创建参数。
H
Hao Wang 已提交
133 134

参数:
135
    - **shape** (list) - 参数的形状。列表中的数据类型必须为int
Y
Youwei Song 已提交
136 137
    - **attr** (ParamAttr,可选) - 指定权重参数属性的对象,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。默认值为None
    - **dtype** (str|core.VarDesc.VarType, 可选) - Layer中参数数据类型。如果设置为str,则可以是“bool”,“float16”,“float32”,“float64”,“int8”,“int16”,“int32”,“int64”,“uint8”或“uint16”。默认值为“float32”。
138 139
    - **is_bias** (bool, 可选) - 是否是偏置参数。默认值:False
    - **default_initializer** (Initializer, 可选) - 默认的参数初始化方法。如果设置为None,则设置非bias参数的初始化方式为 :ref:`cn_api_fluid_initializer_XavierInitializer` ,设置bias参数的初始化方式为 :ref:`cn_api_fluid_initializer_ConstantInitializer` 。默认值:None
H
Hao Wang 已提交
140

141
返回:创建的参数变量
H
Hao Wang 已提交
142

143
返回类型: :ref:`cn_api_fluid_Variable`
H
Hao Wang 已提交
144 145 146

.. py:method:: create_variable(name=None, persistable=None, dtype=None, type=VarType.LOD_TENSOR)

147
Layer创建变量。
H
Hao Wang 已提交
148 149

参数:
150 151
    - **name** (str, 可选) - 变量名。默认值:None
    - **persistable** (bool, 可选) - 是否为持久性变量,后续会被移出。默认值:None
152 153
    - **dtype** (str|core.VarDesc.VarType, 可选) - Layer中参数数据类型。如果设置为str,则可以是“bool”,“float16”,“float32”,“float64”,“int8”,“int16”,“int32”,“int64”,“uint8”或“uint16”。默认值为 ``core.VarDesc.VarType.FP32`` 
    - **type** (core.VarDesc.VarType, 可选) - 变量类型,该参数不需要用户设置。默认值:core.VarDesc.VarType.LOD_TENSOR
H
Hao Wang 已提交
154

155
返回:创建的 ``Tensor`` 
H
Hao Wang 已提交
156

157
返回类型: :ref:`cn_api_fluid_Variable`
H
Hao Wang 已提交
158 159 160

.. py:method:: parameters(include_sublayers=True)

161
返回一个由当前层及其子层的所有参数组成的列表。
H
Hao Wang 已提交
162 163

参数:
164
    - **include_sublayers** (bool, 可选) - 是否返回子层的参数。如果为True,返回的列表中包含子层的参数。默认值:True
H
Hao Wang 已提交
165

166
返回:一个由当前层及其子层的所有参数组成的列表,列表中的元素类型为Parameter(Variable)
H
Hao Wang 已提交
167

168
返回类型:list
H
Hao Wang 已提交
169 170 171 172 173 174

.. py:method:: sublayers(include_sublayers=True)

返回一个由所有子层组成的列表。

参数:
175
    - **include_sublayers** (bool, 可选) - 是否返回子层中各个子层。如果为True,则包括子层中的各个子层。默认值:True
H
Hao Wang 已提交
176

177
返回: 一个由所有子层组成的列表,列表中的元素类型为Layer
H
Hao Wang 已提交
178

179
返回类型:list
H
Hao Wang 已提交
180

181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203
.. py:method:: clear_gradients()

清除该层所有参数的梯度。

**代码示例**

.. code-block:: python

    import paddle.fluid as fluid
    import numpy as np

    with fluid.dygraph.guard():
        value = np.arange(26).reshape(2, 13).astype("float32")
        a = fluid.dygraph.to_variable(value)
        linear = fluid.Linear(13, 5, dtype="float32")
        adam = fluid.optimizer.Adam(learning_rate=0.01, 
                                    parameter_list=linear.parameters())
        out = linear(a)
        out.backward()
        adam.minimize(out)
        linear.clear_gradients()


204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255
.. py:method:: named_parameters(prefix='', include_sublayers=True)

返回层中所有参数的迭代器,生成名称和参数的元组。

参数:
    - **prefix** (str, 可选) - 在所有参数名称前加的前缀。默认值:''
    - **include_sublayers** (bool, 可选) - 是否返回子层的参数。如果为True,返回的列表中包含子层的参数。默认值:True

返回:产出名称和参数的元组的迭代器。

返回类型:iterator

**代码示例**

.. code-block:: python

    import paddle.fluid as fluid

    with fluid.dygraph.guard():
        fc1 = fluid.Linear(10, 3)
        fc2 = fluid.Linear(3, 10, bias_attr=False)
        model = fluid.dygraph.Sequential(fc1, fc2)
        for name, param in model.named_parameters():
            print(name, param)

.. py:method:: named_sublayers(prefix='', include_sublayers=True, include_self=False, layers_set=None)

返回层中所有子层上的迭代器,生成名称和子层的元组。重复的子层只产生一次。

参数:
    - **prefix** (str, 可选) - 在所有参数名称前加的前缀。默认值:''
    - **include_sublayers** (bool, 可选) - 是否返回子层中各个子层。如果为True,则包括子层中的各个子层。默认值:True
    - **include_self** (bool, 可选) - 是否包含该层自身。默认值:False
    - **layers_set** (set, 可选): 记录重复子层的集合。默认值:None

返回:产出名称和子层的元组的迭代器。

返回类型:iterator

**代码示例**

.. code-block:: python

    import paddle.fluid as fluid

    with fluid.dygraph.guard():
        fc1 = fluid.Linear(10, 3)
        fc2 = fluid.Linear(3, 10, bias_attr=False)
        model = fluid.dygraph.Sequential(fc1, fc2)
        for prefix, layer in model.named_sublayers():
            print(prefix, layer)

256 257 258 259 260 261 262 263
.. py:method:: forward(*inputs, **kwargs)

定义每次调用时执行的计算。应该被所有子类覆盖。

参数:
    - **\*inputs** (tuple) - 解包后的tuple参数。
    - **\*\*kwargs** (dict) - 解包后的dict参数。

H
Hao Wang 已提交
264 265
.. py:method:: add_sublayer(name, sublayer)

266
添加子层实例。可以通过self.name访问该sublayer
H
Hao Wang 已提交
267 268

参数:
269 270
    - **name** (str) - 子层名。
    - **sublayer** (Layer) - Layer实例。
H
Hao Wang 已提交
271

272
返回:添加的子层
H
Hao Wang 已提交
273

274
返回类型:Layer
H
Hao Wang 已提交
275 276 277

.. py:method:: add_parameter(name, parameter)

278
添加参数实例。可以通过self.name访问该parameter
H
Hao Wang 已提交
279 280

参数:
281 282
    - **name** (str) - 参数名。
    - **parameter** (Parameter) - Parameter实例。
H
Hao Wang 已提交
283

284
返回:传入的参数实例
H
Hao Wang 已提交
285

286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305
返回类型:Parameter( :ref:`cn_api_fluid_Variable` )

.. py:method:: state_dict(destination=None, include_sublayers=True)

获取当前层及其子层的所有参数。并将所有参数存放在dict结构中。

参数:
    - **destination** (dict, 可选) - 如果提供 ``destination`` ,则所有参数都将存放在 ``destination`` 中。 默认值:None
    - **include_sublayers** (bool, 可选) - 如果设置为True,则包括子层的参数。默认值:True

返回:包含所有参数的dict

返回类型:dict

**代码示例**

.. code-block:: python

    import paddle.fluid as fluid
    with fluid.dygraph.guard():
Y
Youwei Song 已提交
306
        emb = fluid.dygraph.Embedding([10, 10])
307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325
        state_dict = emb.state_dict()
        fluid.save_dygraph(state_dict, "paddle_dy")

.. py:method:: set_dict(stat_dict, include_sublayers=True)

根据传入的 ``stat_dict`` 设置参数。 所有参数将由 ``stat_dict`` 中的 ``Tensor`` 设置。

参数:
    - **state_dict** (dict) - 包含所有参数的dict
    - **include_sublayers** (bool, 可选) - 如果设置为True,则还包括子层的参数。 默认值:True

返回:None

**代码示例**

.. code-block:: python

    import paddle.fluid as fluid
    with fluid.dygraph.guard():
Y
Youwei Song 已提交
326
        emb = fluid.dygraph.Embedding([10, 10])
327 328 329 330 331 332 333
        state_dict = emb.state_dict()
        fluid.save_dygraph(state_dict, "paddle_dy")
        para_state_dict, _ = fluid.load_dygraph("paddle_dy")
        emb.set_dict(para_state_dict)

.. py:method:: load_dict(stat_dict, include_sublayers=True)

Y
Youwei Song 已提交
334 335
.. warning::
    该函数将被弃用。请使用set_dict函数。
336 337 338 339 340 341 342 343 344 345 346 347 348 349 350

根据传入的 ``stat_dict`` 设置参数。 所有参数将由 ``stat_dict`` 中的 ``Tensor`` 设置。

参数:
    - **state_dict** (dict) - 包含所有参数的dict
    - **include_sublayers** (bool, 可选) - 如果设置为True,则还包括子层的参数。 默认值:True

返回:None

**代码示例**

.. code-block:: python

    import paddle.fluid as fluid
    with fluid.dygraph.guard():
Y
Youwei Song 已提交
351
        emb = fluid.dygraph.Embedding([10, 10])
352 353 354 355
        state_dict = emb.state_dict()
        fluid.save_dygraph(state_dict, "paddle_dy")
        para_state_dict, _ = fluid.load_dygraph("paddle_dy")
        emb.load_dict(para_state_dict)
H
Hao Wang 已提交
356