Skip to content

  • 体验新版
    • 正在加载...
  • 登录
  • PaddlePaddle
  • Paddle
  • Issue
  • #6506

P
Paddle
  • 项目概览

PaddlePaddle / Paddle
大约 2 年 前同步成功

通知 2325
Star 20933
Fork 5424
  • 代码
    • 文件
    • 提交
    • 分支
    • Tags
    • 贡献者
    • 分支图
    • Diff
  • Issue 1423
    • 列表
    • 看板
    • 标记
    • 里程碑
  • 合并请求 543
  • Wiki 0
    • Wiki
  • 分析
    • 仓库
    • DevOps
  • 项目成员
  • Pages
P
Paddle
  • 项目概览
    • 项目概览
    • 详情
    • 发布
  • 仓库
    • 仓库
    • 文件
    • 提交
    • 分支
    • 标签
    • 贡献者
    • 分支图
    • 比较
  • Issue 1,423
    • Issue 1,423
    • 列表
    • 看板
    • 标记
    • 里程碑
  • 合并请求 543
    • 合并请求 543
  • Pages
  • 分析
    • 分析
    • 仓库分析
    • DevOps
  • Wiki 0
    • Wiki
  • 成员
    • 成员
  • 收起侧边栏
  • 动态
  • 分支图
  • 创建新Issue
  • 提交
  • Issue看板
已关闭
开放中
Opened 12月 12, 2017 by saxon_zh@saxon_zhGuest

GatedRecurrentLayer 优化计划

Created by: zhaify

ALL- 我是Intel 这边负责GatedRecurrentLayer 优化的工程师,GatedRecurrentLayer代码优化的DEMO已经完成并且通过了单元测试。希望GatedRecurrentLayer 优化的代码能尽快merge 到paddle项目中,以提高GatedRecurrentLayer的性能,让更多使用paddle的用户受益。

由于Intel的优化涉及到以下文件: a. paddle/gserver/layers/GatedRecurrentLayer.cpp b. paddle/gserver/layers/GatedRecurrentLayer.h c. paddle/function/GruFunctor.h 因此在merge 代码方面我们这边提供了三个方法:

  1. 用条件编译的方式修改GatedRecurrentLayer 和GruFunctor的代码,增加Intel 优化的packedGemm。
  2. 在GatedRecurrentLayer中实现packedGemm 子类,并且修改GruCompute::forward接口,将Intel优化 的packedGemm对象传给GruFunctor。
  3. 在GatedRecurrentLayer 类中添加一个新的成员函数例如:forwardBatchPacked,将Intel 修改和依赖 的的代码全部放到这个函数中,在GatedRecurrentLayer::forwardBatch函数中添加新分支来调用Intel 优化的forwardBatchPacked函数。

请问paddle team这边觉得那种方案比较合理,可以接受?或者是否有更好的方案?

指派人
分配到
无
里程碑
无
分配里程碑
工时统计
无
截止日期
无
标识: paddlepaddle/Paddle#6506
渝ICP备2023009037号

京公网安备11010502055752号

网络110报警服务 Powered by GitLab CE v13.7
开源知识
Git 入门 Pro Git 电子书 在线学 Git
Markdown 基础入门 IT 技术知识开源图谱
帮助
使用手册 反馈建议 博客
《GitCode 隐私声明》 《GitCode 服务条款》 关于GitCode
Powered by GitLab CE v13.7