From 7d8c296bdf89c1be5200c2995d665c2a7ed217be Mon Sep 17 00:00:00 2001 From: MaoXianxin Date: Wed, 9 Jun 2021 01:27:27 +0800 Subject: [PATCH] =?UTF-8?q?=E9=A6=96=E6=AC=A1=E7=BB=9F=E4=B8=80=E5=8D=B7?= =?UTF-8?q?=E7=A7=AF=E4=B8=8E=E8=87=AA=E6=B3=A8=E6=84=8F=E5=8A=9B=EF=BC=8C?= =?UTF-8?q?X-volution=E5=8F=91=E5=8A=9B=E7=BD=91=E7=BB=9C=E6=A0=B8?= =?UTF-8?q?=E5=BF=83=E5=9F=BA=E7=A1=80=E6=9E=B6=E6=9E=84=E5=88=9B=E6=96=B0?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- README.md | 8 +++----- 1 file changed, 3 insertions(+), 5 deletions(-) diff --git a/README.md b/README.md index 8714e24..790d1d7 100644 --- a/README.md +++ b/README.md @@ -1,6 +1,6 @@ -# 首次统一卷积与自注意力,上海交大、华为海思提出X-volution,发力网络核心基础架构创新 +# 首次统一卷积与自注意力,X-volution发力网络核心基础架构创新 -> 卷积和自注意力各有优势,但二者的有效结合一直是一大难题。为了取二者之长,上海交大 - 华为海思联合团队提出了一种名为 X-volution 的新型算子。该算子在性能上的显著提升、计算的通用性与即插即用的特性为深度学习基础计算单元库以及 NPU 计算架构的演进提供了一种新的基础武器。 +> 卷积和自注意力各有优势,但二者的有效结合一直是一大难题。为了取二者之长,提出了一种名为 X-volution 的新型算子。该算子在性能上的显著提升、计算的通用性与即插即用的特性为深度学习基础计算单元库以及 NPU 计算架构的演进提供了一种新的基础武器。 众所周知,卷积操作(convolution)与自注意力操作(self-attention)是深度学习两大核心的基础网络计算单元(或称为模型算子)。卷积操作通过线性乘子,提取图像局部特征;自注意力操作通过高阶乘子运算,提取图像全域 / 局部的特征关联特性。两种算子成为深度学习两大重要网络架构演化——CNN 与 Transformer 的计算基石。两种算子在图像特征提取与语义抽象方面的互补性不言而喻:线性 vs. 高阶, 局部 vs. 全局。因此,能否设计一种包含这两种操作的融合算子并使其发挥互补优势,一直是深度学习架构研究者热衷的研究方向之一。 @@ -14,7 +14,7 @@ 论文链接:[https://arxiv.org/pdf/2106.02253.pdf](https://arxiv.org/pdf/2106.02253.pdf) -针对这些挑战,日前,**上海交大 - 华为海思联合团队在 arXiv 上发表了「X-volution: On the Unification of Convolution and Self-attention」**,首次在计算模式上统一了这两大基础算子,并在推理阶段归并成一个简单的卷积型算子:X-volution。 +针对这些挑战,日前,**团队在 arXiv 上发表了「X-volution: On the Unification of Convolution and Self-attention」**,首次在计算模式上统一了这两大基础算子,并在推理阶段归并成一个简单的卷积型算子:X-volution。 X-volution 兼顾卷积与自注意力操作的互补优势,并且在现有通用网络计算框架上不需要额外算子支持,也不增加除卷积外的额外算力或影响网络的规范性 / 可用性(即插即用)。 @@ -76,6 +76,4 @@ X-volution 兼顾卷积与自注意力操作的互补优势,并且在现有通 作者在文中提出了一种新型的算子——X-volution,整合了卷积和 self-attention 的互补特性。同时,他们从 self-attention 的公式中导出了一种巧妙的全局自注意力的逼近形式——PSSA。作者通过在分类、目标检测、实例分割等任务中的优秀表现证实了所提出的算子的有效性。实验也揭露了卷积与 self-attention 的配合确实能较为显著地提升性能,并且两者达到了实质上的特性互补。该新型算子在性能上的显著提升、计算的通用性与即插即用性方面的巨大优势,为深度学习基础计算单元库,以及 NPU 计算架构的演进提供了一种新的基础武器。 -注:该论文作者是上海交通大学海思实习生陈炫宏和王航,由计算机视觉知名专家倪冰冰教授指导。 - ![](https://maoxianxin1996.oss-accelerate.aliyuncs.com/codechina1/20210609012321.png) \ No newline at end of file -- GitLab