提交 9e8376bc 编写于 作者: W wizardforcel

2021-01-15 22:30:54

上级 c48b1156
......@@ -102,7 +102,7 @@
注意
为避免内存限制,在读取文本文件时,请使用 **nrows** 自变量,以读取整个数据集的较小部分。 在前面的示例中,我们正在读取前 50,000 行。
为避免内存限制,在读取文本文件时,请使用`nrows`自变量,以读取整个数据集的较小部分。 在前面的示例中,我们正在读取前 50,000 行。
输出如下:
......@@ -122,7 +122,7 @@
4. Check for missing values.
如果在先前用于此目的的代码行中添加一个附加的 **sum()**函数,则将获得整个数据集中的缺失值之和,而无需按列进行区分:
如果在先前用于此目的的代码行中添加一个附加的`sum()`函数,则将获得整个数据集中的缺失值之和,而无需按列进行区分:
data.isnull()。sum()。sum()
......@@ -890,7 +890,7 @@
top_p,top_class_test = pred.topk(1,暗= 1)
通过打印 **top_class_test** ,我们可以获得模型的预测,在这种情况下,该预测等于`1`(是)。
通过打印`top_class_test`,我们可以获得模型的预测,在这种情况下,该预测等于`1`(是)。
8. Convert the model using the JIT module:
......@@ -906,7 +906,7 @@
top_p_2,top_class_test_2 = projection.topk(1,dim = 1)
通过打印 **top_class_test_2** ,我们从模型的跟踪脚本表示中获得了预测,该预测再次等于`1`(是)。
通过打印`top_class_test_2`,我们从模型的跟踪脚本表示中获得了预测,该预测再次等于`1`(是)。
10. Open a new Jupyter Notebook and import the required libraries to create an API using Flask, as well as the libraries to load the saved model:
......@@ -962,7 +962,7 @@
app.run(debug = True,use_reloader = False)
使用为 API 开发而创建的平台 Postman,可以测试 API。 要向 Postman 提交成功的请求,标头的 **Content-Type** 应当等于 **application / json** 。 结果输出应如下所示:
使用为 API 开发而创建的平台 Postman,可以测试 API。 要向 Postman 提交成功的请求,标头的`*Content-Type`应当等于`application/json`。 结果输出应如下所示:
![Figure 3.20: A screenshot of the app after running it ](img/B15778_03_13.jpg)
......@@ -1026,7 +1026,7 @@
转换=转换)
前面的代码将下载可通过 PyTorch 的 **Torchvision** 软件包获得的训练和测试数据集。 根据上一步中定义的转换对数据集进行转换。
前面的代码将下载可通过 PyTorch 的`Torchvision`软件包获得的训练和测试数据集。 根据上一步中定义的转换对数据集进行转换。
4. Using a validation size of 20%, define the training and validation sampler that will be used to divide the dataset into those two sets:
......@@ -1044,7 +1044,7 @@
dev_sampler = SubsetRandomSampler(dev_idx)
为了将训练集分为两组(训练和验证),为每个组定义了一个索引列表,然后可以使用 **SubsetRandomSampler** 函数对其进行随机采样。
为了将训练集分为两组(训练和验证),为每个组定义了一个索引列表,然后可以使用`SubsetRandomSampler`函数对其进行随机采样。
5. Use the **DataLoader()** function to define the batches of each set of data to be used:
......@@ -1070,7 +1070,7 @@
batch_size =批量大小)
PyTorch 的 **DataLoader** 函数用于创建批次,这些批次将在开发过程的训练,验证和测试阶段馈送到模型中。
PyTorch 的`DataLoader`函数用于创建批次,这些批次将在开发过程的训练,验证和测试阶段馈送到模型中。
6. Define the architecture of your network. Use the following information to do so:
......@@ -1088,7 +1088,7 @@
线性 1:一个全连接层,接收上一层的展平矩阵作为输入,并生成 100 个单位的输出。 为此层使用 ReLU 激活功能。 此处的辍学期限设置为 20%。
Linear2:一个全连接层,可生成 10 个输出,每个类标签一个。 将 **log_softmax** 激活功能用于输出层:
Linear2:一个全连接层,可生成 10 个输出,每个类标签一个。 将`log_softmax`激活功能用于输出层:
CNN(nn.Module)类:
......@@ -1130,7 +1130,7 @@
返回 x
前面的代码段包含一个定义了网络体系结构的类(**__init__** 方法),以及在信息正向传递过程中所遵循的步骤(**正向** 方法)。
前面的代码段包含一个定义了网络体系结构的类(`__init__`方法),以及在信息正向传递过程中所遵循的步骤(`forward`方法)。
7. Define all of the parameters that are required to train your model. Set the number of epochs to`50`:
......@@ -1492,11 +1492,11 @@
1. Duplicate the notebook from the previous activity.
为了完成此活动,按照以下步骤,除了修改**转换**值之外,不会更改任何代码。
为了完成此活动,按照以下步骤,除了修改`tranforms`值之外,不会更改任何代码。
2. Change the definition of the **transform** variable so that it includes, in addition to normalizing and converting the data into tensors, the following transformations:
对于训练/验证集,请使用 **RandomHorizo​​ntalFlip** 函数,其概率为 50% (`0.5`),并使用 **RandomGrayscale** 函数,其概率为 10% (`0.1`)。
对于训练/验证集,请使用`RandomHorizo​​ntalFlip`函数,其概率为 50% (`0.5`),并使用`RandomGrayscale`函数,其概率为 10% (`0.1`)。
对于测试集,请勿添加任何其他转换:
......@@ -1660,7 +1660,7 @@
从 torchvision 导入转换,模型
如果您的计算机具有可用的 GPU,请确保定义一个名为**设备**的变量,该变量将有助于为 GPU 分配一些变量,如下所示:
如果您的计算机具有可用的 GPU,请确保定义一个名为`device`的变量,该变量将有助于为 GPU 分配一些变量,如下所示:
device = "cuda"
......@@ -2030,9 +2030,9 @@
4. Create the **inputs** and **targets** variables that will be fed to the network to create the model. These variables should be of the same shape and be converted into PyTorch tensors.
**输入**变量应包含除上周外的所有星期的所有产品数据,因为模型的目的是预测最后一周。
`input`变量应包含除上周外的所有星期的所有产品数据,因为模型的目的是预测最后一周。
**目标**变量应比**输入**变量领先一步; 也就是说,**目标**变量的第一个值应该是输入变量中的第二个,依此类推,直到**目标**变量的最后一个值(应该是 被留在**输入**变量之外):
`target`变量应比`input`变量领先一步; 也就是说,`target`变量的第一个值应该是输入变量中的第二个,依此类推,直到`target`变量的最后一个值(应该是 被留在`input`变量之外):
data_train = data.iloc [:,:-1]
......@@ -2072,7 +2072,7 @@
返回,隐藏
与之前的活动一样,该类包含 **__init__** 方法以及网络体系结构,以及**转发**方法,该方法确定信息在各层之间的流动。
与之前的活动一样,该类包含`__init__`方法以及网络体系结构,以及`forward`方法,该方法确定信息在各层之间的流动。
6. Instantiate the **class** function containing the model. Feed the input size, the number of neurons in each recurrent layer (`10`), and the number of recurrent layers (`1`):
......@@ -2102,7 +2102,7 @@
注意
考虑到没有批次用于遍历数据集,**隐藏的**变量实际上并未在批次之间传递(而是在处理序列的每个元素时使用隐藏状态),但是 为了清楚起见,它留在这里。
考虑到没有批次用于遍历数据集,`hidden`量实际上并未在批次之间传递(而是在处理序列的每个元素时使用隐藏状态),但是 为了清楚起见,它留在这里。
损失= []
......@@ -2326,7 +2326,7 @@
返回状态
此类包含 **__init__** 方法(其中定义了网络的体系结构),**前向**方法(用于确定通过层的数据流)以及 **init_state** 用零初始化隐藏状态和单元状态的方法。
此类包含`__init__`方法(其中定义了网络的体系结构),`forward`方法(用于确定通过层的数据流)以及`init_state`用零初始化隐藏状态和单元状态的方法。
7. Determine the number of batches to be created out of your dataset, bearing in mind that each batch should contain 100 sequences, each with a length of 50\. Next, split the encoded data into 100 sequences:
......@@ -2556,7 +2556,7 @@
型号= model.to(“ cpu”)
首先,用于循环的**将种子输入模型,以便可以生成内存。 接下来,执行预测,如以下代码片段所示:**
首先,`for`循环的将种子输入模型,以便可以生成内存。 接下来,执行预测,如以下代码片段所示:
对于启动器中的 ch:
......@@ -2700,7 +2700,7 @@
返回
该类包含用于定义网络体系结构的 **__init__** 方法和用于确定数据流经不同层的方式的**正向**方法。
该类包含用于定义网络体系结构的`__init__`方法和用于确定数据流经不同层的方式的`forward`方法。
7. Instantiate the model using 64 embedding dimensions and 128 neurons for three LSTM layers:
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册