提交 626357bf 编写于 作者: W wizardforcel

2021-01-06 10:41:20

上级 b5298e94
......@@ -158,7 +158,7 @@ done
![](img/a5f18ed9-d1af-466a-bed3-38977fffbe43.png)
Jupyter Notebooks 允许命令行界面从 Git 存储库中提取代码。 您可以使用左窗格中的文件浏览器查看此代码。 这是一个方便的功能,使多个开发人员可以轻松无缝地进行协作。
Jupyter 笔记本允许命令行界面从 Git 存储库中提取代码。 您可以使用左窗格中的文件浏览器查看此代码。 这是一个方便的功能,使多个开发人员可以轻松无缝地进行协作。
# 自动执行 AI 笔记本
......
......@@ -111,7 +111,7 @@ RNN 可以分为*多对一*,*一对多*,*多对多*(同步)和*多对多
如前所述,RNN 通常在 NLP 域中用作语言模型,它在单词序列上分配概率分布,例如机器翻译,PoS 标记和语音识别。 我们将使用一种相当有趣的语言来对问题文本生成进行建模,其中 RNN 模型用于学习指定域的文本序列,然后在所需域中生成全新且合理的文本序列。
基于 RNN 的文本生成器可以接受任何输入文本,例如《哈利波特》等小说,莎士比亚的诗歌以及《星球大战》的电影剧本,并可以生成自己的《哈利波特》,莎士比亚的诗歌和《星球大战》电影剧本。 如果对模型进行了很好的训练,那么人工文本应该是合理的,并且阅读起来应与原始文本相似。 在本部分中,我们将以《战争与和平》和俄罗斯作家列夫·托尔斯泰的小说为例。 随意使用您喜欢的任何书籍进行训练。 我们建议从没有版权保护的书中下载文本数据。 古腾堡计划( [www.gutenberg.org](http://www.gutenberg.org)是一个很好的资源,拥有超过 5.7 万本版权已过期的免费优秀书籍。
基于 RNN 的文本生成器可以接受任何输入文本,例如《哈利波特》等小说,莎士比亚的诗歌以及《星球大战》的电影剧本,并可以生成自己的《哈利波特》,莎士比亚的诗歌和《星球大战》电影剧本。 如果对模型进行了很好的训练,那么人工文本应该是合理的,并且阅读起来应与原始文本相似。 在本部分中,我们将以《战争与和平》和俄罗斯作家列夫·托尔斯泰的小说为例。 随意使用您喜欢的任何书籍进行训练。 我们建议从没有版权保护的书中下载文本数据。 [古腾堡计划](http://www.gutenberg.org)是一个很好的资源,拥有超过 5.7 万本版权已过期的免费优秀书籍。
首先,我们需要直接从[这里](https://cs.stanford.edu/people/karpathy/char-rnn/warpeace_input.txt)下载《战争与和平》的`.txt`文件。 或者,我们可以从 [Gutenberg 项目](http://www.gutenberg.org/ebooks/2600)下载该文件,但是我们将需要进行一些清理,例如,从文件以及目录中删除开头部分`Project Gutenberg EBook`,以及结尾的`End of the Project`
......
此差异已折叠。
......@@ -20,7 +20,7 @@
对于本章,您将需要以下内容:
* Python 3.6+
* 烧瓶 1.1.0+
* Flask 1.1.0+
* TensorFlow 2.0+
# 构建深度学习 Web 应用程序
......@@ -83,7 +83,7 @@
将这些文件保存在您的工作目录中。 现在,我们将创建一个 Jupyter 笔记本,对提取的数据集文件执行**探索性数据分析****EDA**)。
在浏览器中打开 Jupyter 笔记本环境,然后创建一个新的 Python Notebook。 让我们从导入必要的模块开始:
在浏览器中打开 Jupyter 笔记本环境,然后创建一个新的 Python 笔记本。 让我们从导入必要的模块开始:
```py
import numpy as np
......@@ -96,7 +96,7 @@ import matplotlib.pyplot as plt
%matplotlib inline
```
如果您使用的是 Windows,则要提取`.gz`文件,可以使用 7-zip 软件,它是一款出色的压缩/解压缩工具,可以从[免费下载 https://www.7-zip .org](https://www.7-zip.org)
如果您使用的是 Windows,则要提取`.gz`文件,可以使用 7-zip 软件,它是一款出色的压缩/解压缩工具,可以从[这里](https://www.7-zip.org)免费下载
# 创建函数以读取图像文件
......@@ -199,7 +199,7 @@ print(test_labels[0])
在对可用数据集进行了非常简洁的探索之后,我们可以得出以下结果。
训练数据集包含 60,000 张图像,尺寸为 60,000 x 784,其中每张图像为`28 x 28`像素。 样本在数字之间的分布如下:
训练数据集包含 60,000 张图像,尺寸为`60,000 x 784`,其中每张图像为`28 x 28`像素。 样本在数字之间的分布如下:
| **序号** | **样本数** | **序号** | **样本数** |
| 0 | 5,923 | 5 | 5,421 |
......@@ -674,7 +674,7 @@ curl -X POST -F img=@"path_to_file" http://localhost/predict/
让我们来看一个示例的 API。
假设我们有以下图片,文件名为`self2.png`,尺寸为 275 x 275
假设我们有以下图片,文件名为`self2.png`,尺寸为`275 x 275`
![](img/c1178ecc-74c4-4240-9fa9-5fa0ff8e6c67.png)
......
......@@ -345,7 +345,7 @@ np.random.seed(5)
df = pd.read_csv("data/heart.csv")
```
我们将快速观察 DataFrame 以查看是否所有列均已正确导入:
我们将快速观察`DataFrame`以查看是否所有列均已正确导入:
```py
df.head(5)
......@@ -513,7 +513,7 @@ np.random.seed(5)
请注意,此处的导入与我们在 Jupyter 笔记本中创建模型时进行的导入非常相似。 这是由于我们仅将 Jupyter 笔记本代码转换为用于后端演示的服务器脚本这一事实而解释的。
2. 然后,我们将数据集加载到`pandas` DataFrame 上:
2. 然后,我们将数据集加载到 pandas `DataFrame`上:
```py
df = pd.read_csv("data/heart.csv")
......
......@@ -252,7 +252,7 @@ data/carhumanbike.png: Predicted in 0.125068 seconds.
darknet$ ./darknet classify cfg/tiny.cfg tiny.weights data/dog.jpg
```
前面的命令生成的结果类似于 Tiny YOLO 链接中发布的结果( [wget https://pjreddie.com/media/files/tiny.weights](https://pjreddie.com/darknet/tiny-darknet/) ):
前面的命令生成的结果类似于 Tiny YOLO 链接中发布的结果(`wget https://pjreddie.com/media/files/tiny.weights`):
```py
Loading weights from tiny.weights...Done!
......
......@@ -664,7 +664,7 @@ tokenizer = Tokenizer(filters='\t\n', char_level=True)
tokenizer.fit_on_texts(X)
```
6. 标记化之后,我们将请求正文中的文本转换为单词向量,如下一步所示。 我们将数据集和 DataFrame 标签分为两部分,即 75%-25%,以进行训练和测试:
6. 标记化之后,我们将请求正文中的文本转换为单词向量,如下一步所示。 我们将数据集和`DataFrame`标签分为两部分,即 75%-25%,以进行训练和测试:
```py
num_words = len(tokenizer.word_index)+1
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册