提交 a45a5160 编写于 作者: T Travis CI

Deploy to GitHub Pages: 0a76f72c

上级 15af84da
...@@ -30,10 +30,10 @@ ...@@ -30,10 +30,10 @@
由于在现有的某些情况下(例如RNN),多次调用 cblas_?gemm 会使用相同的原数据,因此,每次调用时对原数据的重复Packing便成为了冗余。 由于在现有的某些情况下(例如RNN),多次调用 cblas_?gemm 会使用相同的原数据,因此,每次调用时对原数据的重复Packing便成为了冗余。
为了最大程度减少多次调用 cblas_?gemm 在Packing上的耗时,Intel® MKL 引入了以下四个API: 为了最大程度减少多次调用 cblas_?gemm 在Packing上的耗时,Intel® MKL 引入了以下四个API:
* [cblas_?gemm_alloc](https://software.intel.com/en-us/mkl-developer-reference-c-cblas-gemm-alloc) * cblas_?gemm_alloc
* [cblas_?gemm_pack](https://software.intel.com/en-us/mkl-developer-reference-c-cblas-gemm-pack) * cblas_?gemm_pack
* [cblas_?gemm_compute](https://software.intel.com/en-us/mkl-developer-reference-c-cblas-gemm-compute) * cblas_?gemm_compute
* [cblas_?gemm_free](https://software.intel.com/en-us/mkl-developer-reference-c-cblas-gemm-free) * cblas_?gemm_free
通过使用这些API,我们可以先完成对原数据的Packing操作,再把已转换为Packed格式的数据传递给那些复用同一数据的gemm_compute函数,从而避免了Packing冗余。 通过使用这些API,我们可以先完成对原数据的Packing操作,再把已转换为Packed格式的数据传递给那些复用同一数据的gemm_compute函数,从而避免了Packing冗余。
...@@ -84,20 +84,7 @@ PaddlePaddle/Paddle ...@@ -84,20 +84,7 @@ PaddlePaddle/Paddle
2. 对比优化后layer与相对应的PaddlePaddle原有layer, 在batch mode下的结果。 2. 对比优化后layer与相对应的PaddlePaddle原有layer, 在batch mode下的结果。
### Python API ### Python API
计划在`paddle/utils.Flags`中添加`use_mkl_packed`的flag,用于选择是否使用相关功能,并且当编译时`WITH_MKL=ON`的情况下,默认设置为`true`。 TBD
同时,在`python/paddle/trainer/config_parser.py`中对应的layer处,添加`use_mkl_packed`这个选择,方便用户在Python端选择是否启用这个功能。
具体实现方式比如:
```python
use_mkl_packed = bool(int(g_command_config_args.get("use_mkl_packed", 0)))
if use_mkl_packed:
self.layer_type = mkl_packed_*
```
所有相关的`layer_type`会以*mkl_packed_*开头,这些会在`MKLPacked*Layer`注册layer的时候保证,以示区分。
### Benchmarking ### Benchmarking
会添加相应的脚本用于测试和对比在使用MKL Packed recurrent layers 前后的网络性能。 会添加相应的脚本用于测试和对比在使用MKL Packed recurrent layers 前后的网络性能。
......
...@@ -238,14 +238,12 @@ ...@@ -238,14 +238,12 @@
<li>转换冗余 由于在现有的某些情况下(例如RNN),多次调用 cblas_?gemm 会使用相同的原数据,因此,每次调用时对原数据的重复Packing便成为了冗余。</li> <li>转换冗余 由于在现有的某些情况下(例如RNN),多次调用 cblas_?gemm 会使用相同的原数据,因此,每次调用时对原数据的重复Packing便成为了冗余。</li>
</ol> </ol>
<p>为了最大程度减少多次调用 cblas_?gemm 在Packing上的耗时,Intel® MKL 引入了以下四个API:</p> <p>为了最大程度减少多次调用 cblas_?gemm 在Packing上的耗时,Intel® MKL 引入了以下四个API:</p>
<div class="toctree-wrapper compound"> <ul class="simple">
<ul> <li>cblas_?gemm_alloc</li>
<li class="toctree-l1"><a class="reference external" href="https://software.intel.com/en-us/mkl-developer-reference-c-cblas-gemm-alloc">cblas</a></li> <li>cblas_?gemm_pack</li>
<li class="toctree-l1"><a class="reference external" href="https://software.intel.com/en-us/mkl-developer-reference-c-cblas-gemm-pack">cblas</a></li> <li>cblas_?gemm_compute</li>
<li class="toctree-l1"><a class="reference external" href="https://software.intel.com/en-us/mkl-developer-reference-c-cblas-gemm-compute">cblas</a></li> <li>cblas_?gemm_free</li>
<li class="toctree-l1"><a class="reference external" href="https://software.intel.com/en-us/mkl-developer-reference-c-cblas-gemm-free">cblas</a></li>
</ul> </ul>
</div>
<p>通过使用这些API,我们可以先完成对原数据的Packing操作,再把已转换为Packed格式的数据传递给那些复用同一数据的gemm_compute函数,从而避免了Packing冗余。</p> <p>通过使用这些API,我们可以先完成对原数据的Packing操作,再把已转换为Packed格式的数据传递给那些复用同一数据的gemm_compute函数,从而避免了Packing冗余。</p>
</div> </div>
<div class="section" id="solution"> <div class="section" id="solution">
...@@ -305,15 +303,7 @@ ...@@ -305,15 +303,7 @@
</div> </div>
<div class="section" id="python-api"> <div class="section" id="python-api">
<span id="python-api"></span><h3>Python API<a class="headerlink" href="#python-api" title="Permalink to this headline"></a></h3> <span id="python-api"></span><h3>Python API<a class="headerlink" href="#python-api" title="Permalink to this headline"></a></h3>
<p>计划在<code class="docutils literal"><span class="pre">paddle/utils.Flags</span></code>中添加<code class="docutils literal"><span class="pre">use_mkl_packed</span></code>的flag,用于选择是否使用相关功能,并且当编译时<code class="docutils literal"><span class="pre">WITH_MKL=ON</span></code>的情况下,默认设置为<code class="docutils literal"><span class="pre">true</span></code></p> <p>TBD</p>
<p>同时,在<code class="docutils literal"><span class="pre">python/paddle/trainer/config_parser.py</span></code>中对应的layer处,添加<code class="docutils literal"><span class="pre">use_mkl_packed</span></code>这个选择,方便用户在Python端选择是否启用这个功能。</p>
<p>具体实现方式比如:</p>
<div class="highlight-python"><div class="highlight"><pre><span></span><span class="n">use_mkl_packed</span> <span class="o">=</span> <span class="nb">bool</span><span class="p">(</span><span class="nb">int</span><span class="p">(</span><span class="n">g_command_config_args</span><span class="o">.</span><span class="n">get</span><span class="p">(</span><span class="s2">&quot;use_mkl_packed&quot;</span><span class="p">,</span> <span class="mi">0</span><span class="p">)))</span>
<span class="k">if</span> <span class="n">use_mkl_packed</span><span class="p">:</span>
<span class="bp">self</span><span class="o">.</span><span class="n">layer_type</span> <span class="o">=</span> <span class="n">mkl_packed_</span><span class="o">*</span>
</pre></div>
</div>
<p>所有相关的<code class="docutils literal"><span class="pre">layer_type</span></code>会以*mkl_packed_*开头,这些会在<code class="docutils literal"><span class="pre">MKLPacked*Layer</span></code>注册layer的时候保证,以示区分。</p>
</div> </div>
<div class="section" id="benchmarking"> <div class="section" id="benchmarking">
<span id="benchmarking"></span><h3>Benchmarking<a class="headerlink" href="#benchmarking" title="Permalink to this headline"></a></h3> <span id="benchmarking"></span><h3>Benchmarking<a class="headerlink" href="#benchmarking" title="Permalink to this headline"></a></h3>
......
因为 它太大了无法显示 source diff 。你可以改为 查看blob
...@@ -30,10 +30,10 @@ ...@@ -30,10 +30,10 @@
由于在现有的某些情况下(例如RNN),多次调用 cblas_?gemm 会使用相同的原数据,因此,每次调用时对原数据的重复Packing便成为了冗余。 由于在现有的某些情况下(例如RNN),多次调用 cblas_?gemm 会使用相同的原数据,因此,每次调用时对原数据的重复Packing便成为了冗余。
为了最大程度减少多次调用 cblas_?gemm 在Packing上的耗时,Intel® MKL 引入了以下四个API: 为了最大程度减少多次调用 cblas_?gemm 在Packing上的耗时,Intel® MKL 引入了以下四个API:
* [cblas_?gemm_alloc](https://software.intel.com/en-us/mkl-developer-reference-c-cblas-gemm-alloc) * cblas_?gemm_alloc
* [cblas_?gemm_pack](https://software.intel.com/en-us/mkl-developer-reference-c-cblas-gemm-pack) * cblas_?gemm_pack
* [cblas_?gemm_compute](https://software.intel.com/en-us/mkl-developer-reference-c-cblas-gemm-compute) * cblas_?gemm_compute
* [cblas_?gemm_free](https://software.intel.com/en-us/mkl-developer-reference-c-cblas-gemm-free) * cblas_?gemm_free
通过使用这些API,我们可以先完成对原数据的Packing操作,再把已转换为Packed格式的数据传递给那些复用同一数据的gemm_compute函数,从而避免了Packing冗余。 通过使用这些API,我们可以先完成对原数据的Packing操作,再把已转换为Packed格式的数据传递给那些复用同一数据的gemm_compute函数,从而避免了Packing冗余。
...@@ -84,20 +84,7 @@ PaddlePaddle/Paddle ...@@ -84,20 +84,7 @@ PaddlePaddle/Paddle
2. 对比优化后layer与相对应的PaddlePaddle原有layer, 在batch mode下的结果。 2. 对比优化后layer与相对应的PaddlePaddle原有layer, 在batch mode下的结果。
### Python API ### Python API
计划在`paddle/utils.Flags`中添加`use_mkl_packed`的flag,用于选择是否使用相关功能,并且当编译时`WITH_MKL=ON`的情况下,默认设置为`true`。 TBD
同时,在`python/paddle/trainer/config_parser.py`中对应的layer处,添加`use_mkl_packed`这个选择,方便用户在Python端选择是否启用这个功能。
具体实现方式比如:
```python
use_mkl_packed = bool(int(g_command_config_args.get("use_mkl_packed", 0)))
if use_mkl_packed:
self.layer_type = mkl_packed_*
```
所有相关的`layer_type`会以*mkl_packed_*开头,这些会在`MKLPacked*Layer`注册layer的时候保证,以示区分。
### Benchmarking ### Benchmarking
会添加相应的脚本用于测试和对比在使用MKL Packed recurrent layers 前后的网络性能。 会添加相应的脚本用于测试和对比在使用MKL Packed recurrent layers 前后的网络性能。
......
...@@ -257,14 +257,12 @@ ...@@ -257,14 +257,12 @@
<li>转换冗余 由于在现有的某些情况下(例如RNN),多次调用 cblas_?gemm 会使用相同的原数据,因此,每次调用时对原数据的重复Packing便成为了冗余。</li> <li>转换冗余 由于在现有的某些情况下(例如RNN),多次调用 cblas_?gemm 会使用相同的原数据,因此,每次调用时对原数据的重复Packing便成为了冗余。</li>
</ol> </ol>
<p>为了最大程度减少多次调用 cblas_?gemm 在Packing上的耗时,Intel® MKL 引入了以下四个API:</p> <p>为了最大程度减少多次调用 cblas_?gemm 在Packing上的耗时,Intel® MKL 引入了以下四个API:</p>
<div class="toctree-wrapper compound"> <ul class="simple">
<ul> <li>cblas_?gemm_alloc</li>
<li class="toctree-l1"><a class="reference external" href="https://software.intel.com/en-us/mkl-developer-reference-c-cblas-gemm-alloc">cblas</a></li> <li>cblas_?gemm_pack</li>
<li class="toctree-l1"><a class="reference external" href="https://software.intel.com/en-us/mkl-developer-reference-c-cblas-gemm-pack">cblas</a></li> <li>cblas_?gemm_compute</li>
<li class="toctree-l1"><a class="reference external" href="https://software.intel.com/en-us/mkl-developer-reference-c-cblas-gemm-compute">cblas</a></li> <li>cblas_?gemm_free</li>
<li class="toctree-l1"><a class="reference external" href="https://software.intel.com/en-us/mkl-developer-reference-c-cblas-gemm-free">cblas</a></li>
</ul> </ul>
</div>
<p>通过使用这些API,我们可以先完成对原数据的Packing操作,再把已转换为Packed格式的数据传递给那些复用同一数据的gemm_compute函数,从而避免了Packing冗余。</p> <p>通过使用这些API,我们可以先完成对原数据的Packing操作,再把已转换为Packed格式的数据传递给那些复用同一数据的gemm_compute函数,从而避免了Packing冗余。</p>
</div> </div>
<div class="section" id="solution"> <div class="section" id="solution">
...@@ -324,15 +322,7 @@ ...@@ -324,15 +322,7 @@
</div> </div>
<div class="section" id="python-api"> <div class="section" id="python-api">
<span id="python-api"></span><h3>Python API<a class="headerlink" href="#python-api" title="永久链接至标题"></a></h3> <span id="python-api"></span><h3>Python API<a class="headerlink" href="#python-api" title="永久链接至标题"></a></h3>
<p>计划在<code class="docutils literal"><span class="pre">paddle/utils.Flags</span></code>中添加<code class="docutils literal"><span class="pre">use_mkl_packed</span></code>的flag,用于选择是否使用相关功能,并且当编译时<code class="docutils literal"><span class="pre">WITH_MKL=ON</span></code>的情况下,默认设置为<code class="docutils literal"><span class="pre">true</span></code></p> <p>TBD</p>
<p>同时,在<code class="docutils literal"><span class="pre">python/paddle/trainer/config_parser.py</span></code>中对应的layer处,添加<code class="docutils literal"><span class="pre">use_mkl_packed</span></code>这个选择,方便用户在Python端选择是否启用这个功能。</p>
<p>具体实现方式比如:</p>
<div class="highlight-python"><div class="highlight"><pre><span></span><span class="n">use_mkl_packed</span> <span class="o">=</span> <span class="nb">bool</span><span class="p">(</span><span class="nb">int</span><span class="p">(</span><span class="n">g_command_config_args</span><span class="o">.</span><span class="n">get</span><span class="p">(</span><span class="s2">&quot;use_mkl_packed&quot;</span><span class="p">,</span> <span class="mi">0</span><span class="p">)))</span>
<span class="k">if</span> <span class="n">use_mkl_packed</span><span class="p">:</span>
<span class="bp">self</span><span class="o">.</span><span class="n">layer_type</span> <span class="o">=</span> <span class="n">mkl_packed_</span><span class="o">*</span>
</pre></div>
</div>
<p>所有相关的<code class="docutils literal"><span class="pre">layer_type</span></code>会以*mkl_packed_*开头,这些会在<code class="docutils literal"><span class="pre">MKLPacked*Layer</span></code>注册layer的时候保证,以示区分。</p>
</div> </div>
<div class="section" id="benchmarking"> <div class="section" id="benchmarking">
<span id="benchmarking"></span><h3>Benchmarking<a class="headerlink" href="#benchmarking" title="永久链接至标题"></a></h3> <span id="benchmarking"></span><h3>Benchmarking<a class="headerlink" href="#benchmarking" title="永久链接至标题"></a></h3>
......
此差异已折叠。
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册