Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
机器未来
Paddle
提交
P
Paddle
项目概览
机器未来
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
1
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
1
Issue
1
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
bfacd706c77e7875275e8187197e793035e2504c
切换分支/标签
Paddle
paddle
fluid
operators
fused
fmha_ref.h
08 11月, 2021
1 次提交
L
【fix-bug】Support attn_mask=None input cases for fused_attention_op. (#36951)
· 472dcca4
由
Li Min
提交于
11月 08, 2021
目前的fused_attention_op不支持attn_mask=None的输入,本PR对此进行了补充,并补充了相应的单测逻辑。
472dcca4
23 9月, 2021
1 次提交
L
Add fused_attention_op: add impl wrappers. (#35903)
· 88ea8e6f
由
Li Min
提交于
9月 23, 2021
88ea8e6f