提交 17467851 编写于 作者: R Rachel Hu

index polish done

上级 cc4c2d9a
# 注意力机制
:label:`chap_attention`
灵长类动物的视觉系统中的视神经接受了大量的感官输入。这些感官输入远远超过了大脑能够完全处理的程度。幸运的是,并非所有刺激的影响都是相等的。意识的聚集和专注使灵长类动物能够在复杂的视觉环境中将注意力引向感兴趣的物体,例如猎物和天敌。只关注一小部分信息的能力对进化富有意义,使人类得以生存和成功。
灵长类动物的视觉系统接受了大量的感官输入,
这些感官输入远远超过了大脑能够完全处理的程度。
然而,并非所有刺激的影响都是相等的。
意识的聚集和专注使灵长类动物能够在复杂的视觉环境中将注意力引向感兴趣的物体,例如猎物和天敌。
只关注一小部分信息的能力对进化更加有意义,使人类得以生存和成功。
自19世纪以来,科学家们一直在研究认知神经科学领域的注意力。在本章中,我们将首先回顾一个热门框架,解释如何在视觉场景中展开注意力。受此框架中的*注意力提示*(attention cues)的启发,我们将设计能够利用这些注意力提示的模型。1964年的Nadaraya-Waston核回归(kernel regression)正是具有*注意力机制*(attention mechanisms)的机器学习的简单演示。
自19世纪以来,科学家们一直致力于研究认知神经科学领域的注意力。
本章的很多章节将涉及到这些研究:
我们将首先回顾一个经典注意力框架,解释如何在视觉场景中展开注意力。
受此框架中的*注意力提示*(attention cues)的启发,
我们将设计能够利用这些注意力提示的模型。
1964年的Nadaraya-Waston核回归(kernel regression)正是具有
*注意力机制*(attention mechanism)的机器学习的简单演示。
然后,我们继续介绍的是注意力函数,它们在深度学习的注意力模型设计中被广泛使用。具体来说,我们将展示如何使用这些函数来设计*Bahdanau注意力*。Bahdanau注意力是深度学习中的具有突破性价值的注意力模型,它是双向对齐的并且可以微分。
然后,我们继续介绍的是注意力函数,它们在深度学习的注意力模型设计中被广泛使用。
具体来说,我们将展示如何使用这些函数来设计*Bahdanau注意力*
Bahdanau注意力是深度学习中的具有突破性价值的注意力模型,它双向对齐并且可以微分。
最后,我们将描述仅仅基于注意力机制的*transformer*架构,该架构中使用了*多头注意力*(multi-head attention)和*自注意力*(self-attention)设计。自2017年被构想出来,transformer一直都普遍存在于现代的深度学习应用中,例如语言、视觉、语音和强化学习领域。
最后,我们将描述仅仅基于注意力机制的*transformer*架构,
该架构中使用了*多头注意力*(multi-head attention)
*自注意力*(self-attention)。
自2017年横空出世,transformer一直都普遍存在于现代的深度学习应用中,
例如语言、视觉、语音和强化学习领域。
```toc
:maxdepth: 2
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册