【fix-bug】Support attn_mask=None input cases for fused_attention_op. (#36951)
目前的fused_attention_op不支持attn_mask=None的输入,本PR对此进行了补充,并补充了相应的单测逻辑。
Showing
想要评论请 注册 或 登录
Fork自 PaddlePaddle / Paddle
目前的fused_attention_op不支持attn_mask=None的输入,本PR对此进行了补充,并补充了相应的单测逻辑。