提交 c88b3449 编写于 作者: W wizardforcel

2021-01-22 11:34:12

上级 c6df80b4
......@@ -40,7 +40,7 @@ print(torch.__version__)
首先定义一个简单的`Module``Module`是 PyTorch 中组成的基本单位。 它包含:
1. 构造器,为调用准备模块
1. 为调用准备模块的构造器
2. 一组`Parameters`和子`Modules`。 这些由构造器初始化,并且可以在调用期间由模块使用。
3. `forward`函数。 这是调用模块时运行的代码。
......
......@@ -13,7 +13,7 @@
* 了解命名尺寸如何在两个关键区域实现更清晰的代码:
* 广播操作
* 展平和展平尺寸
* 重塑和展开尺寸
最后,我们将通过使用命名张量编写一个多头注意力模块来将其付诸实践。
......@@ -23,12 +23,12 @@ PyTorch 中的命名张量受 [Sasha Rush](https://tech.cornell.edu/people/alexa
PyTorch 现在允许张量具有命名维度; 工厂函数采用新的名称参数,该参数将名称与每个维度相关联。 这适用于大多数工厂功能,例如
* 张量
* 为空
*
*
* 兰恩
* 兰特
* `tensor`
* `empty`
* `ones`
* `zeros`
* `randn`
* `rand`
这里我们用名字构造一个张量:
......
......@@ -403,7 +403,7 @@ for (m, attrs) in old_attrs.items():
* 解决 N1HW 和 NC11 张量的歧义;
* 测试分布式训练支持;
* 提高运营商覆盖率。
* 提高运算符覆盖率。
如果您有反馈和/或改进建议,请通过创建 [ISSUE](https://github.com/pytorch/pytorch/issues) 来通知我们。
......
......@@ -6,7 +6,7 @@
* 根据输入张量的设备,在运算符的 CPU 和 CUDA 实现之间切换。
* 在运算符的自动微分和后端实现之间切换,这取决于是否需要自动微分处理。
* 必要时应用自动广播实现自动混合精度。
* 必要时应用自动广播实现自动混合精度。
* 当运算符在`vmap`调用下运行时,应用批量规则。
* 如果要跟踪导出的模型,则跟踪操作的执行。
......
......@@ -10,7 +10,7 @@
如您所见,我们只需要添加一些细微的修改即可。 特别是,我们需要
1.功能中包装数据加载和训练,
1.函数中包装数据加载和训练,
2. 使一些网络参数可配置,
3. 添加检查点(可选),
4. 并定义用于模型调整的搜索空间
......
......@@ -95,8 +95,8 @@ print(torch.__config__.parallel_info())
[`gum_convert_examples_to_features`](https://github.com/huggingface/transformers/blob/master/transformers/data/processors/glue.py)函数将文本转换为输入特征:
* 标记输入序列;
* 在开头插入[CLS]
* 在第一句和第二句之间并在最后插入[SEP]
* 在开头插入`[CLS]`
* 在第一句和第二句之间并在最后插入`[SEP]`
* 生成标记类型 ID,以指示标记是属于第一序列还是第二序列。
[`gum_compute_metrics`](https://github.com/huggingface/transformers/blob/master/transformers/data/processors/glue.py)函数的计算指标为 [F1 得分](https://scikit-learn.org/stable/modules/generated/sklearn.metrics.f1_score.html),可以将其解释为精度和召回率的加权平均值,其中 F1 得分在 1 和最差处达到最佳值 得分为 0。精度和召回率对 F1 得分的相对贡献相等。
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册