- 11 3月, 2022 1 次提交
 - 
- 
由 Yuang Liu 提交于
 
 - 
 - 24 2月, 2022 1 次提交
 - 
- 
由 Leo Chen 提交于
* fix 'invalid escape sequence' * fix assert error
 
 - 
 - 26 11月, 2021 1 次提交
 - 
- 
由 Li Min 提交于
* Fix bugs when bias is none for static graph for fused_attention op.
 
 - 
 - 23 11月, 2021 1 次提交
 - 
- 
由 Li Min 提交于
Add support for bias is none for fused_attention op.
 
 - 
 - 16 11月, 2021 1 次提交
 - 
- 
由 Li Min 提交于
fused_attention_op的实现中,使用了bias_add,且其实现是通过使用kernel primitive来实现的,之后kernel primitive的WriteData api接口及函数内部实现发生了更改,将判断越界的逻辑移到了template的参数中,使得调用的分支有错误,产生了越界赋值操作,污染了别的显存空间的内容。具体表现为:test_fused_attention_op_api.py 单次执行基本上不会报错,多次循环执行不同shape的输入,结果计算不对,具有偶发性,bug不易察觉。
 
 - 
 - 12 11月, 2021 1 次提交
 - 
- 
由 zhangkaihuo 提交于
* fix bug: 1. atten: set the default value of attn_dropout_rate to None 2. ffn: add activation parameter
 
 - 
 - 28 10月, 2021 1 次提交
 - 
- 
由 Li Min 提交于
* Fix fused_attention english doc test=document_fix
 
 - 
 - 27 10月, 2021 1 次提交
 - 
- 
由 zhangkaihuo 提交于
本PR是fused_transformer的layer层代码,包含FusedFeedForward的layer层代码和FusedTransformerEncoderLayer的代码。
 
 - 
 - 26 10月, 2021 2 次提交