提交 1fabf138 编写于 作者: W wizardforcel

2021-07-27 22:46:06

上级 2ba65029
......@@ -170,7 +170,7 @@ Pan 和 Yang 撰写的论文《迁移学习综述》[可以在此处找到](http
深度学习系统天生就渴望数据,因此它们需要许多训练示例来学习权重。 这是深度神经网络的局限性之一,尽管人类学习并非如此。 例如,一旦向孩子展示了苹果的外观,他们就可以轻松识别出不同种类的苹果(带有一个或几个训练示例); 机器学习和深度学习算法并非如此。 单样本学习是迁移学习的一种变体,在这种学习中,我们尝试仅根据一个或几个训练示例来推断所需的输出。 这在无法为每个可能的类提供标签数据的现实世界场景中(如果是分类任务)和在经常可以添加新类的场景中非常有用。
据说 Fei-Fei 及其合作者具有里程碑意义的论文[《对象类别的单发学习》](https://ieeexplore.ieee.org/document/1597116/)。 在此子领域创造了“一次性学习和研究”一词。 本文提出了一种用于对象分类的表示学习的贝叶斯框架的变体。 此后,此方法已得到改进,并已使用深度学习系统进行了应用。
据说 Fei-Fei 及其合作者具有里程碑意义的论文[《对象类别的单发学习》](https://ieeexplore.ieee.org/document/1597116/)。 在此子领域创造了“单样本学习和研究”一词。 本文提出了一种用于对象分类的表示学习的贝叶斯框架的变体。 此后,此方法已得到改进,并已使用深度学习系统进行了应用。
# 零样本学习
......
......@@ -805,9 +805,9 @@ b)在最后一步中,将所有带有![](img/tex-011310f4e5761898d60b776931cb
#### 人脸验证
##### 一次性学习(学习“相似性”函数)
##### 单样本学习(学习“相似性”函数)
在这种情况下,一次性学习就是:从一个例子中学习以再次认识这个人。
在这种情况下,单样本学习就是:从一个例子中学习以再次认识这个人。
函数![](img/tex-fc2beeb62375e002363c70c8c5f8e503.gif)表示 img1 和 img2 之间的差异程度。
......
......@@ -37,7 +37,7 @@
* [35] A. Dundar,J。Jin和E. Culurciello。用于无监督学习的卷积聚类。 2016年ICLR研讨会。
* [36] [D. Eigen和R. Fergus。使用通用的多尺度卷积结构预测深度,表面法线和语义标签。在ICCV,2015年。](file:///D:/papers/1411.4734/)
* [37] D. Erhan,Y。Bengio,A。Courville和P. Vincent。可视化深层网络的高层功能。技术报告1341,蒙特利尔大学,2009年。
* [38] [L. Fei-Fei,R。Fergus和R. Perona。对象类别的一次性学习。 IEEE Transactions on Pattern Analysis and Machine Intelligence,28:594“611,2006。](http://vision.cs.princeton.edu/documents/Fei-FeiFergusPerona2006.pdf)
* [38] [L. Fei-Fei,R。Fergus和R. Perona。对象类别的单样本学习。 IEEE Transactions on Pattern Analysis and Machine Intelligence,28:594“611,2006。](http://vision.cs.princeton.edu/documents/Fei-FeiFergusPerona2006.pdf)
* [39] [C. Feichtenhofer,A。Pinz和R. P. Wildes。基于时空显着性的动态编码动作。在CVPR,2015年。](http://dx.doi.org/10.1109/cvpr.2015.7298892)
* [40] [C. Feichtenhofer,A。Pinz和R. P. Wildes。用于视频动作识别的时空残留网络。在NIPS,2016年。](http://dx.doi.org/10.1109/cvpr.2017.787)
* [41] [C. Feichtenhofer,A。Pinz和R. P. Wildes。用于视频动作识别的时空乘数网络。在CVPR,2017年。](http://dx.doi.org/10.1109/cvpr.2017.787)
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册