profiler_cn.rst 7.5 KB
Newer Older
T
Tink_Y 已提交
1 2 3 4 5 6 7 8 9
#################
 fluid.profiler
#################



.. _cn_api_fluid_profiler_cuda_profiler:

cuda_profiler
H
1207  
Hao Wang 已提交
10
-------------------------------
T
Tink_Y 已提交
11

C
Cheerego 已提交
12
.. py:function:: paddle.fluid.profiler.cuda_profiler(output_file, output_mode=None, config=None)
T
Tink_Y 已提交
13 14 15 16 17 18 19 20


CUDA分析器。通过CUDA运行时应用程序编程接口对CUDA程序进行性能分析。分析结果将以键-值对格式或逗号分隔的格式写入output_file。用户可以通过output_mode参数设置输出模式,并通过配置参数设置计数器/选项。默认配置是[' gpustarttimestamp ', ' gpustarttimestamp ', ' gridsize3d ', ' threadblocksize ', ' streamid ', ' enableonstart 0 ', ' conckerneltrace ']。然后,用户可使用 `NVIDIA Visual Profiler <https://developer.nvidia.com/nvidia-visualprofiler>`_ 工具来加载这个输出文件以可视化结果。


参数:
  - **output_file** (string) – 输出文件名称, 输出结果将会写入该文件
  - **output_mode** (string) – 输出格式是有 key-value 键值对 和 逗号的分割的格式。格式应该是' kvp '或' csv '
T
tink2123 已提交
21
  - **config** (list of string) – 参考"Compute Command Line Profiler User Guide" 查阅 profiler options 和 counter相关信息
T
Tink_Y 已提交
22 23

抛出异常:
T
tink2123 已提交
24
    - ``ValueError`` -  如果 ``output_mode`` 不在 ['kvp', 'csv'] 中
T
Tink_Y 已提交
25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55


**代码示例**


..  code-block:: python
  
    import paddle.fluid as fluid
    import paddle.fluid.profiler as profiler

    epoc = 8
    dshape = [4, 3, 28, 28]
    data = fluid.layers.data(name='data', shape=[3, 28, 28], dtype='float32')
    conv = fluid.layers.conv2d(data, 20, 3, stride=[1, 1], padding=[1, 1])

    place = fluid.CUDAPlace(0)
    exe = fluid.Executor(place)
    exe.run(fluid.default_startup_program())

    output_file = 'cuda_profiler.txt'
    with profiler.cuda_profiler(output_file, 'csv') as nvprof:
        for i in range(epoc):
            input = np.random.random(dshape).astype('float32')
            exe.run(fluid.default_main_program(), feed={'data': input})
            
    # 之后可以使用 NVIDIA Visual Profile 可视化结果





H
1207  
Hao Wang 已提交
56 57 58



T
Tink_Y 已提交
59 60 61 62

.. _cn_api_fluid_profiler_profiler:

profiler
H
1207  
Hao Wang 已提交
63
-------------------------------
T
Tink_Y 已提交
64

C
Cheerego 已提交
65
.. py:function:: paddle.fluid.profiler.profiler(state, sorted_key=None, profile_path='/tmp/profile')
T
Tink_Y 已提交
66 67 68 69 70 71 72

profile interface 。与cuda_profiler不同,此profiler可用于分析CPU和GPU程序。默认情况下,它记录CPU和GPU kernel,如果想分析其他程序,可以参考教程来在c++代码中添加更多代码。


如果 state== ' All ',在profile_path 中写入文件 profile proto 。该文件记录执行期间的时间顺序信息。然后用户可以看到这个文件的时间轴,请参考 `https://github.com/PaddlePaddle/Paddle/blob/develop/doc/fluid/howto/optimization/timeline.md <https://github.com/PaddlePaddle/Paddle/blob/develop/doc/fluid/howto/optimization/timeline.md>`_ 

参数:
T
tink2123 已提交
73 74 75
  - **state** (string) –  profiling state, 取值为 'CPU' 或 'GPU',  profiler 使用 CPU timer 或GPU timer 进行 profiling. 虽然用户可能在开始时指定了执行位置(CPUPlace/CUDAPlace),但是为了灵活性,profiler不会使用这个位置。
  - **sorted_key** (string) – 如果为None,prfile的结果将按照事件的第一次结束时间顺序打印。否则,结果将按标志排序。标志取值为"call"、"total"、"max"、"min" "ave"之一,根据调用着的数量进行排序。total表示按总执行时间排序,max 表示按最大执行时间排序。min 表示按最小执行时间排序。ave表示按平均执行时间排序。
  - **profile_path** (string) –  如果 state == 'All', 结果将写入文件 profile proto.
T
Tink_Y 已提交
76 77
  
抛出异常:
T
tink2123 已提交
78
  - ``ValueError`` – 如果state 取值不在 ['CPU', 'GPU', 'All']中. 如果 sorted_key 取值不在 ['calls', 'total', 'max', 'min', 'ave']
T
Tink_Y 已提交
79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96
  
**代码示例**

..  code-block:: python
    
    import paddle.fluid.profiler as profiler

    with profiler.profiler('All', 'total', '/tmp/profile') as prof:
        for pass_id in range(pass_num):
            for batch_id, data in enumerate(train_reader()):
                exe.run(fluid.default_main_program(),
                        feed=feeder.feed(data),
                        fetch_list=[],
                        use_program_cache=True)
                # ...



H
1207  
Hao Wang 已提交
97 98 99



T
Tink_Y 已提交
100 101 102 103

.. _cn_api_fluid_profiler_reset_profiler:

reset_profiler
H
1207  
Hao Wang 已提交
104
-------------------------------
T
Tink_Y 已提交
105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123

.. py:function:: paddle.fluid.profiler.reset_profiler()

清除之前的时间记录。此接口不适用于 ``fluid.profiler.cuda_profiler`` ,它只适用于 ``fluid.profiler.start_profiler`` , ``fluid.profiler.stop_profiler`` , ``fluid.profiler.profiler`` 。

**代码示例**

..  code-block:: python
  
    import paddle.fluid.profiler as profiler
    with profiler.profiler(state, 'total', '/tmp/profile'):
    for iter in range(10):
        if iter == 2:
            profiler.reset_profiler()
        # ...




H
1207  
Hao Wang 已提交
124 125 126



T
Tink_Y 已提交
127 128 129 130

.. _cn_api_fluid_profiler_start_profiler:

start_profiler
H
1207  
Hao Wang 已提交
131
-------------------------------
T
Tink_Y 已提交
132 133 134 135 136 137 138 139 140 141

.. py:function:: paddle.fluid.profiler.start_profiler(state)

激活使用 profiler, 用户可以使用 ``fluid.profiler.start_profiler`` 和 ``fluid.profiler.stop_profiler`` 插入代码
不能使用 ``fluid.profiler.profiler`` 


如果 state== ' All ',在profile_path 中写入文件 profile proto 。该文件记录执行期间的时间顺序信息。然后用户可以看到这个文件的时间轴,请参考 `https://github.com/PaddlePaddle/Paddle/blob/develop/doc/fluid/howto/optimization/timeline.md <https://github.com/PaddlePaddle/Paddle/blob/develop/doc/fluid/howto/optimization/timeline.md>`_ 

参数:
T
tink2123 已提交
142
  - **state** (string) – profiling state, 取值为 'CPU' 或 'GPU' 或 'All', 'CPU' 代表只分析 cpu. 'GPU' 代表只分析 GPU . 'All' 会产生 timeline.
T
Tink_Y 已提交
143 144

抛出异常:
T
tink2123 已提交
145
  - ``ValueError`` – 如果state 取值不在 ['CPU', 'GPU', 'All']中
T
Tink_Y 已提交
146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164

**代码示例**

..  code-block:: python
    
    import paddle.fluid.profiler as profiler

    profiler.start_profiler('GPU')
    for iter in range(10):
        if iter == 2:
            profiler.reset_profiler()
        # except each iteration
    profiler.stop_profiler('total', '/tmp/profile')

                # ...




H
1207  
Hao Wang 已提交
165 166 167



T
Tink_Y 已提交
168 169 170 171

.. _cn_api_fluid_profiler_stop_profiler:

stop_profiler
H
1207  
Hao Wang 已提交
172
-------------------------------
T
Tink_Y 已提交
173

T
Tink_Y 已提交
174
.. py:function:: paddle.fluid.profiler.stop_profiler(sorted_key=None, profile_path='/tmp/profile')
T
Tink_Y 已提交
175 176

停止 profiler, 用户可以使用 ``fluid.profiler.start_profiler`` 和 ``fluid.profiler.stop_profiler`` 插入代码
T
Tink_Y 已提交
177
不能使用 ``fluid.profiler.profiler`` 
T
Tink_Y 已提交
178 179

参数:
T
tink2123 已提交
180 181
  - **sorted_key** (string) – 如果为None,prfile的结果将按照事件的第一次结束时间顺序打印。否则,结果将按标志排序。标志取值为"call"、"total"、"max"、"min" "ave"之一,根据调用着的数量进行排序。total表示按总执行时间排序,max 表示按最大执行时间排序。min 表示按最小执行时间排序。ave表示按平均执行时间排序。
  - **profile_path** (string) - 如果 state == 'All', 结果将写入文件 profile proto.
T
Tink_Y 已提交
182 183 184
  

抛出异常:
T
tink2123 已提交
185
  - ``ValueError`` – 如果state 取值不在 ['CPU', 'GPU', 'All']中
T
Tink_Y 已提交
186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201

**代码示例**

..  code-block:: python
    
    import paddle.fluid.profiler as profiler

    profiler.start_profiler('GPU')
    for iter in range(10):
        if iter == 2:
            profiler.reset_profiler()
            # except each iteration
    profiler.stop_profiler('total', '/tmp/profile')



H
1207  
Hao Wang 已提交
202 203 204



T
Tink_Y 已提交
205