提交 0891a270 编写于 作者: W wizardforcel

2021-01-24 23:59:51

上级 68207646
# 前言
# 零、前言
# 关于本书
......
# 1.深度学习和 PyTorch 简介
# 一、深度学习和 PyTorch 简介
### 概述
......
# 2.神经网络的构建块
# 二、神经网络的构建块
概述
### 概述
本章介绍了神经网络的主要组成部分,并解释了当今的三种主要神经网络架构。 此外,它解释了训练任何人工智能模型之前数据准备的重要性,并最终解释了解决回归数据问题的过程。 在本章的最后,您将牢固地掌握不同网络架构及其不同应用的学习过程。
......
# 3.使用 DNN 的分类问题
# 三、使用 DNN 的分类问题
### 概述
......
# 4.卷积神经网络
# 四、卷积神经网络
### 概述
......
# 5.样式迁移
# 五、样式迁移
### 概述
......
# 6.使用 RNN 分析数据序列
# 六、使用 RNN 分析数据序列
### 概述
......
# 附录
# 七、附录
# 1.深度学习和 PyTorch 简介
......
+ [PyTorch 人工智能研讨会](README.md)
+ [零、前言](0.md)
+ [一、深度学习和 PyTorch 简介](1.md)
+ [二、神经网络的构建块](2.md)
+ [三、使用 DNN 的分类问题](3.md)
+ [四、卷积神经网络](4.md)
+ [五、样式迁移](5.md)
+ [六、使用 RNN 分析数据序列](6.md)
+ [七、附录](7.md)
# 前言
# 零、前言
一次学习一直是许多科学家的活跃研究领域,他们试图找到一种在学习方面尽可能接近人类的认知机器。 关于人类如何实现一次学习的理论多种多样,从非参数模型和深度学习架构到概率模型,可以采用多种方法来实现这一功能。
......
# 一次学习简介
# 一、一次学习简介
人们可以通过少量示例学习新事物。 当受到刺激时,人类似乎能够快速理解新概念,然后在将来认识到这些概念的变体。 孩子可以从一张图片中学会识别狗,但是机器学习系统需要大量示例来学习狗的特征并在将来识别它们。 作为一个领域,机器学习在各种任务(例如分类和 Web 搜索以及图像和语音识别)上都取得了巨大的成功。 但是,这些模型通常在没有大量数据(示例)可供学习的情况下表现不佳。 本书的主要动机是使用很少的示例来训练模型,而无需进行大量的重新训练就能够将其概括为不熟悉的类别。
......
# 基于指标的方法
# 二、基于指标的方法
深度学习已在各种应用中成功实现了最先进的表现,例如图像分类,对象检测,语音识别等。 但是,深度学习架构在被迫对几乎没有监督信息的数据进行预测时常常会失败。 众所周知,数学是所有机器学习和深度学习模型的基础。 我们使用数据的数学表示将数据和目标传达给机器。 这些表示形式可以有多种形式,特别是如果我们想学习复杂的任务(例如疾病检测),或者如果我们希望我们的架构根据不同的目标学习表示形式,例如,计算两个图像之间的相似度,我们可以计算欧几里得距离和余弦相似度。
......
# 基于模型的方法
# 三、基于模型的方法
在上一章中,我们讨论了两种基于优化的方法。 我们试图用元学习机制来训练模型,这与人类所见相似。 当然,除了学习新事物的能力外,人类在执行任何任务时还可以访问大量内存。 通过回忆过去的经历和经验,这使我们能够更轻松地学习新任务。 遵循相同的思想过程,设计了基于模型的架构,并添加了外部存储器以快速概括一次学习任务。 在这些方法中,使用存储在外部存储器中的信息,模型仅需几个训练步骤即可收敛。
......
# 基于优化的方法
# 四、基于优化的方法
大多数深度学习模型都是使用梯度下降法来学习目标的。 但是,梯度下降优化需要大量训练样本才能使模型收敛,这使其不适合进行少量学习。 在通用深度学习模型中,我们训练模型以学习实现确定的目标,而人类则训练为学习任何目标。 遵循此观察结果,各种研究人员创建了针对**元学习**机制的不同优化方法。
......
# 基于生成建模的方法
# 五、基于生成建模的方法
当人们对看不见的数据进行推断时,他们会利用有关他们已经看到,听到,触摸或经历过的相关事件的强大先验知识(或归纳偏见)。 例如,与狗一起长大的婴儿可能第一次见到猫,并立即推断出它与家犬的宠物般的性情相似。 当然,猫和狗作为物种和个体是千差万别的。 但是,公平地说,猫比狗更像狗,而不是孩子经历的其他随机事物(例如食物)。 与机器学习模型相反,人类不需要成千上万的猫实例就可以从头开始学习,只要他们已经学会了识别狗就可以识别猫。 人脑具有*元学习*的固有能力,这与机器学习语言中的**迁移学习****多任务学习**有关。 此能力通过利用从相关任务中学到的知识来加速新概念的学习。
......
# 总结和其他方法
# 六、总结和其他方法
在这本书中,我们了解了用于深度学习的各种形式的架构,以及从手动特征提取到变型贝叶斯框架的各种技术和方法。 一次学习是一个特别活跃的研究领域,因为它专注于根据人类的神经能力更紧密地建立一种机器意识。 过去 5 年中,随着深度学习社区的进步,我们至少可以说,我们正在开发一种可以像人类一样同时学习多个任务的机器。 在这一章中,我们将看到一次学习还有哪些其他选择,并讨论本书中未深入探讨的其他方法。
......
+ [Python 一次学习实用指南](README.md)
+ [零、前言](0.md)
+ [第一部分:一次学习简介](sec1.md)
+ [一、一次学习简介](1.md)
+ [第二部分:深度学习架构](sec2.md)
+ [二、基于指标的方法](2.md)
+ [三、基于模型的方法](3.md)
+ [四、基于优化的方法](4.md)
+ [第三部分:其他方法和结论](sec3.md)
+ [五、基于生成建模的方法](5.md)
+ [六、总结和其他方法](6.md)
# 第 1 节:一次学习简介
# 第一部分:一次学习简介
深度学习给制造业带来了重大变化,无论是制造业,医疗还是人力资源。 通过这一重大革命和概念验证,几乎每个行业都在尝试调整其业务模型以适应深度学习,但是它有一些主要要求,可能并不适合每个业务或行业。 阅读本节后,您将对深度学习的优缺点有适当的了解。
......
# 第 2 节:深度学习架构
# 第二部分:深度学习架构
一次学习一直是许多科学家的活跃研究领域,他们试图找到一种在学习方面与人类尽可能接近的认知机器。 由于存在关于人类如何进行一次学习的各种理论,因此我们可以使用许多不同的深度学习方法来解决这一问题。 本书的这一部分将重点介绍基于度量,基于模型和基于优化的深度学习架构,以解决一次学习问题及其实现。
......
# 第三:其他方法和结论
# 第三部分:其他方法和结论
深度学习架构已被证明是非常有效的,但是它们仍然不是一次学习的最佳方法。 贝叶斯编程语言之类的不同贝叶斯方法仍然可以一口气击败人类。 在本节中,我们将学习贝叶斯方法,并讨论该领域的最新进展。 此外,我们将贝叶斯方法与深度学习圈中解决任何问题的众所周知的技术(迁移学习)进行比较。 我们还将学习何时在迁移学习中使用单发方法。
......
# 前言
# 零、前言
在互联网时代,每天从社交媒体和其他平台生成越来越多的文本数据,因此能够理解这些数据是一项至关重要的技能。 本书将帮助您为**自然语言处理****NLP**)任务建立深度学习模型,这将帮助您从文本中提取有价值的见解。
......
# “第 1 章”:机器学习和深度学习的基础
# 一、机器学习和深度学习的基础
我们的世界拥有丰富的自然语言数据。 在过去的几十年中,我们彼此之间的通信方式已经转变为数字领域,因此,这些数据可用于构建可改善我们在线体验的模型。 从在搜索引擎中返回相关结果,到自动完成您在电子邮件中输入的下一个单词,从自然语言中提取见解的好处显而易见。
......
# “第 2 章”:用于 NLP 的 PyTorch 1.x 入门
# 二、用于 NLP 的 PyTorch 1.x 入门
**PyTorch** 是基于 Python 的机器学习库。 它包含两个主要功能:通过硬件加速(使用 GPU)有效执行张量操作的能力以及构建深度神经网络的能力。 PyTorch 还使用动态计算图代替静态计算图,这使其与 TensorFlow 等类似库区分开来。 通过演示如何使用张量表示语言以及如何使用神经网络向 NLP 学习,我们将显示这两个功能对于自然语言处理特别有用。
......
# “第 3 章”:NLP 和文本嵌入
# 三、NLP 和文本嵌入
在深度学习中,有许多种表示文本的方式。 虽然我们已经介绍了基本的**词袋****BoW**)表示形式,但不足为奇的是,还有一种更为复杂的表示文本数据的方式称为嵌入。 BoW 向量仅充当句子中单词的计数,而嵌入有助于从数字上定义某些单词的实际含义。
......
# “第 4 章”:文本预处理,词干提取和词形还原
# 四、文本预处理,词干提取和词形还原
文本数据可以从许多不同的来源收集,并采用许多不同的形式。 文本可以整洁,可读或原始且混乱,也可以采用许多不同的样式和格式。 能够对这些数据进行预处理,以便可以在将其转换为 NLP 模型之前将其转换为标准格式,这就是我们将在本章中介绍的内容。
......
# “第 5 章”:循环神经网络和情感分析
# 五、循环神经网络和情感分析
在本章中,我们将研究**循环神经网络****RNN**),这是 PyTorch 中基本前馈神经网络的变体,我们在第 1 章“机器学习基础”中学习了如何构建它。 通常,RNN 可用于任何可以将数据表示为序列的任务。 其中包括使用以序列表示的历史数据的时间序列进行股票价格预测之类的事情。 我们通常在 NLP 中使用 RNN,因为可以将文本视为单个单词的序列,并可以对其进行建模。 传统的神经网络将单个向量作为模型的输入,而 RNN 可以采用整个向量序列。 如果我们将文档中的每个单词表示为向量嵌入,则可以将整个文档表示为向量序列(或 3 阶张量)。 然后,我们可以使用 RNN(以及更复杂的 RNN 形式,称为**长短期记忆****LSTM**))从我们的数据中学习。
......
# “第 6 章”:用于文本分类的卷积神经网络
# 六、用于文本分类的卷积神经网络
在上一章中,我们展示了如何使用 RNN 为文本提供情感分类。 但是,RNN 并不是唯一可用于 NLP 分类任务的神经网络架构。 **卷积神经网络****CNN**)是另一种这样的架构。
......
# “第 7 章”:使用序列到序列神经网络的文本翻译
# 七、使用序列到序列神经网络的文本翻译
在前两章中,我们使用神经网络对文本进行分类并执行情感分析。 两项任务都涉及获取 NLP 输入并预测一些值。 就我们的情感分析而言,这是一个介于 0 和 1 之间的数字,代表我们句子的情感。 就我们的句子分类模型而言,我们的输出是一个多类预测,其中我们的句子属于多个类别。 但是,如果我们不仅希望做出单个预测,还希望做出整个句子,该怎么办? 在本章中,我们将构建一个序列到序列模型,该模型将一种语言的句子作为输入,并输出另一种语言的句子翻译。
......
# “第 8 章”:使用基于注意力的神经网络构建聊天机器人
# 八、使用基于注意力的神经网络构建聊天机器人
如果您曾经看过任何未来派科幻电影,那么您很有可能会看到与机器人的人类对话。 基于机器的情报一直是小说作品中的长期特征。 但是,由于 NLP 和深度学习的最新发展,与计算机的对话不再是幻想。 虽然我们可能距离真正的智能还很多年,在这种情况下,计算机能够以与人类相同的方式理解语言的含义,但机器至少能够进行基本的对话并提供基本的智能印象。
......
# “第 9 章”:前方的路
# 九、前方的路
机器学习领域正在迅速扩展,几乎每年都有新的发现。 NLP 的机器学习领域也不例外,其发展迅速,并且在 NLP 任务上的机器学习模型的表现也逐渐提高。
......
+ [Python 自然语言处理实用指南](README.md)
+ [零、前言](0.md)
+ [第一部分:用于 NLP 的 PyTorch 1.x 的要点](sec1.md)
+ [一、机器学习和深度学习的基础](1.md)
+ [二、用于 NLP 的 PyTorch 1.x 入门](2.md)
+ [第二部分:自然语言处理基础](sec2.md)
+ [三、NLP 和文本嵌入](3.md)
+ [四、文本预处理,词干提取和词形还原](4.md)
+ [第三部分:使用 PyTorch 1.x 的实际 NLP 应用](sec3.md)
+ [五、循环神经网络和情感分析](5.md)
+ [六、用于文本分类的卷积神经网络](6.md)
+ [七、使用序列到序列神经网络的文本翻译](7.md)
+ [八、使用基于注意力的神经网络构建聊天机器人](8.md)
+ [九、前方的路](9.md)
# 第 1 节:用于 NLP 的 PyTorch 1.x 的要点
# 第一部分:用于 NLP 的 PyTorch 1.x 的要点
在本节中,您将在**自然语言处理****NLP**)的背景下了解 PyTorch 1.x 的基本概念。 您还将学习如何在计算机上安装 PyTorch 1.x,以及如何使用 CUDA 加快处理速度。
......
# 第 2 部分:自然语言处理基础
# 第部分:自然语言处理基础
在本节中,您将学习构建**自然语言处理****NLP**)应用的基础知识。 您还将在本节中学习如何在 PyTorch 中使用各种 NLP 技术,例如单词嵌入,CBOW 和分词。
......
# 第 3 节:使用 PyTorch 1.x 的实际 NLP 应用
# 第三部分:使用 PyTorch 1.x 的实际 NLP 应用
在本节中,我们将使用 PyTorch 中可用的各种**自然语言处理****NLP**)技术来构建各种实际 -使用 PyTorch 的世界应用。 情感分析,文本摘要,文本分类以及使用 PyTorch 构建聊天机器人应用是本节将介绍的一些任务。
......
+ [前言](0.md)
+ [使用 PyTorch 使用张量](1.md)
+ [与神经网络协作](2.md)
+ [用于计算机视觉的卷积神经网络](3.md)
+ [用于 NLP 的循环神经网络](4.md)
+ [迁移学习和 TensorBoard](5.md)
+ [探索生成对抗网络](6.md)
+ [深度强化学习](7.md)
+ [在 PyTorch 中生产 AI 模型](8.md)
+ [PyTorch 人工智能基础知识](README.md)
\ No newline at end of file
+ [前言](0.md)
+ [第 1 章。深度学习演练和 PyTorch 简介](1.md)
+ [第 2 章。简单的神经网络](2.md)
+ [第 3 章。深度学习工作流程](3.md)
+ [第 4 章。计算机视觉](4.md)
+ [第 5 章。序列数据处理](5.md)
+ [第 6 章。生成网络](6.md)
+ [第 7 章。强化学习](7.md)
+ [第 8 章。生产中的 PyTorch ](8.md)
+ [PyTorch 深度学习实用指南](README.md)
\ No newline at end of file
+ [PyTorch 官方教程 1.7](00.md)
+ [学习 PyTorch](01.md)
+ [PyTorch 深度学习:60 分钟的突击](02.md)
+ [张量](03.md)
+ [`torch.autograd`的简要介绍](04.md)
+ [神经网络](05.md)
+ [训练分类器](06.md)
+ [通过示例学习 PyTorch](07.md)
+ [热身:NumPy](08.md)
+ [PyTorch:张量](09.md)
+ [PyTorch:张量和 Autograd](10.md)
+ [PyTorch:定义新的 Autograd 函数](11.md)
+ [PyTorch:`nn`](12.md)
+ [PyTorch:`optim`](13.md)
+ [PyTorch:自定义`nn`模块](14.md)
+ [PyTorch:控制流 + 权重共享](15.md)
+ [`torch.nn`到底是什么?](16.md)
+ [使用 TensorBoard 可视化模型,数据和训练](17.md)
+ [图片/视频](18.md)
+ [`torchvision`对象检测微调教程](19.md)
+ [计算机视觉的迁移学习教程](20.md)
+ [对抗示例生成](21.md)
+ [DCGAN 教程](22.md)
+ [音频](23.md)
+ [音频 I/O 和`torchaudio`的预处理](24.md)
+ [使用`torchaudio`的语音命令识别](25.md)
+ [文本](26.md)
+ [使用`nn.Transformer`和`torchtext`的序列到序列建模](27.md)
+ [从零开始的 NLP:使用字符级 RNN 分类名称](28.md)
+ [从零开始的 NLP:使用字符级 RNN 生成名称](29.md)
+ [从零开始的 NLP:使用序列到序列网络的翻译和注意力](30.md)
+ [使用`torchtext`的文本分类](31.md)
+ [`torchtext`语言翻译](32.md)
+ [强化学习](33.md)
+ [强化学习(DQN)教程](34.md)
+ [训练玩马里奥的 RL 智能体](35.md)
+ [在生产中部署 PyTorch 模型](36.md)
+ [通过使用 Flask 的 REST API 在 Python 中部署 PyTorch](37.md)
+ [TorchScript 简介](38.md)
+ [在 C++ 中加载 TorchScript 模型](39.md)
+ [将模型从 PyTorch 导出到 ONNX 并使用 ONNX 运行时运行它(可选)](40.md)
+ [前端 API](41.md)
+ [PyTorch 中的命名张量简介(原型)](42.md)
+ [PyTorch 中通道在最后的内存格式(beta)](43.md)
+ [使用 PyTorch C++ 前端](44.md)
+ [自定义 C++ 和 CUDA 扩展](45.md)
+ [使用自定义 C++ 运算符扩展 TorchScript](46.md)
+ [使用自定义 C++ 类扩展 TorchScript](47.md)
+ [TorchScript 中的动态并行性](48.md)
+ [C++ 前端中的 Autograd](49.md)
+ [在 C++ 中注册调度运算符](50.md)
+ [模型优化](51.md)
+ [分析您的 PyTorch 模块](52.md)
+ [使用 Ray Tune 的超参数调整](53.md)
+ [模型剪裁教程](54.md)
+ [LSTM 单词语言模型上的动态量化(beta)](55.md)
+ [BERT 上的动态量化(Beta)](56.md)
+ [PyTorch 中使用 Eager 模式的静态量化(beta)](57.md)
+ [计算机视觉的量化迁移学习教程(beta)](58.md)
+ [并行和分布式训练](59.md)
+ [PyTorch 分布式概述](60.md)
+ [单机模型并行最佳实践](61.md)
+ [分布式数据并行入门](62.md)
+ [用 PyTorch 编写分布式应用](63.md)
+ [分布式 RPC 框架入门](64.md)
+ [使用分布式 RPC 框架实现参数服务器](65.md)
+ [使用 RPC 的分布式管道并行化](66.md)
+ [使用异步执行实现批量 RPC 处理](67.md)
+ [将分布式`DataParallel`与分布式 RPC 框架相结合](68.md)
+ [PyTorch 中文官方教程 1.7](README.md)
\ No newline at end of file
+ [前言](00.md)
+ [深度学习–架构和框架](01.md)
+ [使用 OpenAI Gym 训练强化学习智能体](02.md)
+ [马尔可夫决策过程](03.md)
+ [策略梯度](04.md)
+ [Q 学习和深度 Q 网络](05.md)
+ [异步方法](06.md)
+ [一切都是机器人-真正的战略游戏](07.md)
+ [AlphaGo –最好的强化学习](08.md)
+ [自动驾驶中的强化学习](09.md)
+ [金融投资组合管理](10.md)
+ [机器人技术中的强化学习](11.md)
+ [广告技术中的深度强化学习](12.md)
+ [图像处理中的强化学习](13.md)
+ [NLP 中的深度强化学习](14.md)
+ [强化学习的其他主题](15.md)
+ [TensorFlow 强化学习](README.md)
\ No newline at end of file
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册