提交 44820a64 编写于 作者: 绝不原创的飞龙's avatar 绝不原创的飞龙

2024-02-06 15:59:28

上级 f42038df
......@@ -9,7 +9,7 @@
* * *
```
class torch.finfo
class torch.finfo
```
[`torch.finfo`](#torch.torch.finfo "torch.torch.finfo") 是表示浮点 [`torch.dtype`](tensor_attributes.html#torch.torch.dtype "torch.torch.dtype") (即`torch.float32`,`torch.float64`和`torch.float16`)的数值属性的对象。 这类似于 [numpy.finfo](https://docs.scipy.org/doc/numpy/reference/generated/numpy.finfo.html)
......@@ -45,7 +45,7 @@ class torch.finfo¶
* * *
```
class torch.iinfo
class torch.iinfo
```
[`torch.iinfo`](#torch.torch.iinfo "torch.torch.iinfo") 是代表整数 [`torch.dtype`](tensor_attributes.html#torch.torch.dtype "torch.torch.dtype") (即`torch.uint8`,`torch.int8`,`torch.int16`,`torch.int32`和`torch.int64`)。 这类似于 [numpy.iinfo](https://docs.scipy.org/doc/numpy/reference/generated/numpy.iinfo.html)
......
......@@ -266,7 +266,7 @@ class torch.Tensor
```
```
names
names
```
存储每个张量维度的名称。
......@@ -284,7 +284,7 @@ The named tensor API is experimental and subject to change.
* * *
```
rename(*names, **rename_map)
rename(*names, **rename_map)
```
重命名`self`的尺寸名称。
......@@ -322,7 +322,7 @@ The named tensor API is experimental and subject to change.
* * *
```
rename_(*names, **rename_map)
rename_(*names, **rename_map)
```
[`rename()`](#torch.Tensor.rename "torch.Tensor.rename") 的就地版本。
......@@ -330,7 +330,7 @@ rename_(*names, **rename_map)¶
* * *
```
refine_names(*names)
refine_names(*names)
```
根据 [`names`](#torch.Tensor.names "torch.Tensor.names") 细化`self`的尺寸名称。
......@@ -369,7 +369,7 @@ The named tensor API is experimental and subject to change.
* * *
```
align_as(other) → Tensor
align_as(other) → Tensor
```
排列`self`张量的尺寸以匹配`other`张量中的尺寸顺序,为任何新名称添加大小为 1 的变暗。
......@@ -415,7 +415,7 @@ The named tensor API is experimental and subject to change.
* * *
```
align_to(*names)
align_to(*names)
```
排列`self`张量的尺寸以匹配 [`names`](#torch.Tensor.names "torch.Tensor.names") 中指定的顺序,为任何新名称添加大小为 1 的变暗。
......@@ -450,7 +450,7 @@ The named tensor API is experimental and subject to change.
* * *
```
unflatten(dim, namedshape)
unflatten(dim, namedshape)
```
`namedshape`指定的形状将命名尺寸 [`dim`](tensors.html#torch.Tensor.dim "torch.Tensor.dim") 展平。
......
......@@ -50,7 +50,7 @@
* * *
```
torchvision.get_image_backend()
torchvision.get_image_backend()
```
获取用于加载图像的包的名称
......@@ -58,7 +58,7 @@ torchvision.get_image_backend()¶
* * *
```
torchvision.set_image_backend(backend)
torchvision.set_image_backend(backend)
```
指定用于加载图像的软件包。
......@@ -70,7 +70,7 @@ torchvision.set_image_backend(backend)¶
* * *
```
torchvision.set_video_backend(backend)
torchvision.set_video_backend(backend)
```
指定用于解码视频的包。
......
......@@ -58,7 +58,7 @@
* * *
```
torchaudio.get_sox_bool(i=0)
torchaudio.get_sox_bool(i=0)
```
获取 sox_bool 枚举以获取 sox encodinginfo 选项。
......@@ -78,7 +78,7 @@ sox_bool
* * *
```
torchaudio.get_sox_encoding_t(i=None)
torchaudio.get_sox_encoding_t(i=None)
```
获取 sox 编码的 sox_encoding_t 枚举。
......@@ -98,7 +98,7 @@ sox_encoding_t
* * *
```
torchaudio.get_sox_option_t(i=2)
torchaudio.get_sox_option_t(i=2)
```
获取 sox encodinginfo 选项的 sox_option_t 枚举。
......@@ -118,7 +118,7 @@ sox_option_t
* * *
```
torchaudio.info(filepath)
torchaudio.info(filepath)
```
从音频文件获取元数据,而不加载信号。
......@@ -148,7 +148,7 @@ Example
* * *
```
torchaudio.initialize_sox()
torchaudio.initialize_sox()
```
初始化 sox 以与效果链一起使用。 对于简单加载,这不是必需的。 重要的是,只运行一次 <cite>initialize_sox</cite> ,并且不要在每个效果链之后都关闭,而是在完成所有效果链后才关闭。
......@@ -156,7 +156,7 @@ torchaudio.initialize_sox()¶
* * *
```
torchaudio.load(filepath, out=None, normalization=True, channels_first=True, num_frames=0, offset=0, signalinfo=None, encodinginfo=None, filetype=None)
torchaudio.load(filepath, out=None, normalization=True, channels_first=True, num_frames=0, offset=0, signalinfo=None, encodinginfo=None, filetype=None)
```
将音频文件从磁盘加载到张量
......@@ -208,7 +208,7 @@ torch.Size([2, 278756])
* * *
```
torchaudio.load_wav(filepath, **kwargs)
torchaudio.load_wav(filepath, **kwargs)
```
加载波形文件。 假定 wav 文件每个样本使用 16 位,需要通过将输入右移 16 位来进行归一化。
......@@ -228,7 +228,7 @@ Tuple[[torch.Tensor](https://pytorch.org/docs/stable/tensors.html#torch.Tensor "
* * *
```
torchaudio.save(filepath, src, sample_rate, precision=16, channels_first=True)
torchaudio.save(filepath, src, sample_rate, precision=16, channels_first=True)
```
<cite>save_encinfo</cite> 的便捷功能。
......@@ -248,7 +248,7 @@ Parameters
* * *
```
torchaudio.save_encinfo(filepath, src, channels_first=True, signalinfo=None, encodinginfo=None, filetype=None)
torchaudio.save_encinfo(filepath, src, channels_first=True, signalinfo=None, encodinginfo=None, filetype=None)
```
将音频信号的张量以 mp3,wav 等标准格式保存到磁盘。
......@@ -280,7 +280,7 @@ Example
* * *
```
torchaudio.shutdown_sox()
torchaudio.shutdown_sox()
```
摊牌袜效果链。 简单加载不需要。 重要的是,只能拨打一次。 尝试重新初始化 sox 将导致段错误。
......@@ -288,7 +288,7 @@ torchaudio.shutdown_sox()¶
* * *
```
torchaudio.sox_encodinginfo_t()
torchaudio.sox_encodinginfo_t()
```
创建一个 sox_encodinginfo_t 对象。 该对象可用于设置编码类型,位精度,压缩系数,反向字节,反向半字节,反向位和字节序。 可以在效果链中使用它来对最终输出进行编码或使用特定编码保存文件。 例如,可以使用 sox ulaw 编码进行 8 位 ulaw 编码。 请注意,在张量输出中,结果将是 32 位数字,但是唯一值的数量将由位精度确定。
......@@ -330,7 +330,7 @@ Example
* * *
```
torchaudio.sox_signalinfo_t()
torchaudio.sox_signalinfo_t()
```
创建一个 sox_signalinfo_t 对象。 该对象可用于设置效果的采样率,通道数,长度,位精度和净空倍数
......
......@@ -241,7 +241,7 @@ t1 = tensors[1].to(device)
* * *
```
torch_xla.core.xla_model.xla_device(n=None, devkind=None)
torch_xla.core.xla_model.xla_device(n=None, devkind=None)
```
返回 XLA 设备的给定实例。
......@@ -259,7 +259,7 @@ torch_xla.core.xla_model.xla_device(n=None, devkind=None)¶
* * *
```
torch_xla.core.xla_model.get_xla_supported_devices(devkind=None, max_devices=None)
torch_xla.core.xla_model.get_xla_supported_devices(devkind=None, max_devices=None)
```
返回给定类型的受支持设备的列表。
......@@ -277,7 +277,7 @@ Returns
* * *
```
torch_xla.core.xla_model.xrt_world_size(defval=1)
torch_xla.core.xla_model.xrt_world_size(defval=1)
```
检索参与复制的设备数。
......@@ -293,7 +293,7 @@ Returns
* * *
```
torch_xla.core.xla_model.get_ordinal(defval=0)
torch_xla.core.xla_model.get_ordinal(defval=0)
```
检索当前进程的复制序号。
......@@ -311,7 +311,7 @@ Returns
* * *
```
torch_xla.core.xla_model.is_master_ordinal()
torch_xla.core.xla_model.is_master_ordinal()
```
检查当前进程是否为主序(0)。
......@@ -323,7 +323,7 @@ Returns
* * *
```
torch_xla.core.xla_model.optimizer_step(optimizer, barrier=False, optimizer_args={})
torch_xla.core.xla_model.optimizer_step(optimizer, barrier=False, optimizer_args={})
```
运行提供的优化器步骤并发出 XLA 设备步骤计算。
......@@ -345,7 +345,7 @@ Returns
* * *
```
class torch_xla.distributed.parallel_loader.ParallelLoader(loader, devices, batchdim=0, fixed_batch_size=False, loader_prefetch_size=8, device_prefetch_size=4)
class torch_xla.distributed.parallel_loader.ParallelLoader(loader, devices, batchdim=0, fixed_batch_size=False, loader_prefetch_size=8, device_prefetch_size=4)
```
使用背景数据上传包装现有的 PyTorch DataLoader。
......@@ -367,7 +367,7 @@ Parameters
* * *
```
per_device_loader(device)
per_device_loader(device)
```
检索给定设备的加载程序对象。
......@@ -383,7 +383,7 @@ Returns
* * *
```
class torch_xla.distributed.data_parallel.DataParallel(network, device_ids=None)
class torch_xla.distributed.data_parallel.DataParallel(network, device_ids=None)
```
使用线程以复制模式启用模型网络的执行。
......@@ -397,7 +397,7 @@ Parameters
* * *
```
__call__(loop_fn, loader, fixed_batch_size=False, batchdim=0)
__call__(loop_fn, loader, fixed_batch_size=False, batchdim=0)
```
进行一次 EPOCH 训练/测试。
......@@ -417,7 +417,7 @@ Returns
* * *
```
torch_xla.distributed.xla_multiprocessing.spawn(fn, args=(), nprocs=None, join=True, daemon=False)
torch_xla.distributed.xla_multiprocessing.spawn(fn, args=(), nprocs=None, join=True, daemon=False)
```
启用基于并行处理的复制。
......@@ -443,7 +443,7 @@ Returns
* * *
```
class torch_xla.utils.utils.SampleGenerator(data, sample_count)
class torch_xla.utils.utils.SampleGenerator(data, sample_count)
```
迭代器,它返回给定输入数据的多个样本。
......
此差异已折叠。
此差异已折叠。
此差异已折叠。
......@@ -9,7 +9,7 @@
* * *
```
class torch.dtype
class torch.dtype
```
[`torch.dtype`](#torch.torch.dtype "torch.torch.dtype") 是表示 [`torch.Tensor`](tensors.html#torch.Tensor "torch.Tensor") 的数据类型的对象。 PyTorch 具有九种不同的数据类型:
......@@ -121,7 +121,7 @@ When the output tensor of an arithmetic operation is specified, we allow casting
* * *
```
class torch.device
class torch.device
```
[`torch.device`](#torch.torch.device "torch.torch.device") 是表示在其上或将要分配 [`torch.Tensor`](tensors.html#torch.Tensor "torch.Tensor") 的设备的对象。
......@@ -200,7 +200,7 @@ Note
* * *
```
class torch.layout
class torch.layout
```
[`torch.layout`](#torch.torch.layout "torch.torch.layout") 是表示 [`torch.Tensor`](tensors.html#torch.Tensor "torch.Tensor") 的内存布局的对象。 目前,我们支持`torch.strided`(密集张量),并为`torch.sparse_coo`(稀疏 COO 张量)提供实验性支持。
......
......@@ -7,7 +7,7 @@
* * *
```
torch.autograd.backward(tensors, grad_tensors=None, retain_graph=None, create_graph=False, grad_variables=None)
torch.autograd.backward(tensors, grad_tensors=None, retain_graph=None, create_graph=False, grad_variables=None)
```
计算给定张量的梯度总和 w.r.t. 图叶。
......@@ -29,7 +29,7 @@ torch.autograd.backward(tensors, grad_tensors=None, retain_graph=None, create_gr
* * *
```
torch.autograd.grad(outputs, inputs, grad_outputs=None, retain_graph=None, create_graph=False, only_inputs=True, allow_unused=False)
torch.autograd.grad(outputs, inputs, grad_outputs=None, retain_graph=None, create_graph=False, only_inputs=True, allow_unused=False)
```
计算并返回输出 w.r.t 的梯度总和。 输入。
......@@ -57,7 +57,7 @@ Parameters
* * *
```
class torch.autograd.no_grad
class torch.autograd.no_grad
```
禁用梯度计算的上下文管理器。
......@@ -92,7 +92,7 @@ False
* * *
```
class torch.autograd.enable_grad
class torch.autograd.enable_grad
```
启用梯度计算的上下文管理器。
......@@ -127,7 +127,7 @@ True
* * *
```
class torch.autograd.set_grad_enabled(mode)
class torch.autograd.set_grad_enabled(mode)
```
将渐变计算设置为开或关的上下文管理器。
......@@ -195,13 +195,13 @@ class torch.Tensor
```
```
grad
grad
```
此属性默认为`None`,并在首次调用 [`backward()`](#torch.Tensor.backward "torch.Tensor.backward") 计算`self`的梯度时成为张量。 然后,该属性将包含计算出的梯度,将来对 [`backward()`](#torch.Tensor.backward "torch.Tensor.backward") 的调用将在其中累积(添加)梯度。
```
requires_grad
requires_grad
```
如果需要为此张量计算梯度,则为`True`,否则为`False`
......@@ -211,7 +211,7 @@ requires_grad¶
需要为张量计算梯度的事实并不意味着将填充 [`grad`](#torch.Tensor.grad "torch.Tensor.grad") 属性,有关更多详细信息,请参见 [`is_leaf`](#torch.Tensor.is_leaf "torch.Tensor.is_leaf")
```
is_leaf
is_leaf
```
按照惯例,所有具有 [`requires_grad`](#torch.Tensor.requires_grad "torch.Tensor.requires_grad")`False`的张量将是叶张量。
......@@ -252,7 +252,7 @@ True
* * *
```
backward(gradient=None, retain_graph=None, create_graph=False)
backward(gradient=None, retain_graph=None, create_graph=False)
```
计算电流张量 w.r.t. 图叶。
......@@ -272,7 +272,7 @@ Parameters
* * *
```
detach()
detach()
```
返回与当前图形分离的新 Tensor。
......@@ -286,7 +286,7 @@ Note
* * *
```
detach_()
detach_()
```
从创建它的图形中分离张量,使其成为一片叶子。 视图不能就地分离。
......@@ -294,7 +294,7 @@ detach_()¶
* * *
```
register_hook(hook)
register_hook(hook)
```
注册一个倒钩。
......@@ -330,7 +330,7 @@ Example:
* * *
```
retain_grad()
retain_grad()
```
为非叶张量启用.grad 属性。
......@@ -340,7 +340,7 @@ retain_grad()¶
* * *
```
class torch.autograd.Function
class torch.autograd.Function
```
记录操作历史并定义用于区分操作的公式。
......@@ -372,21 +372,21 @@ class torch.autograd.Function¶
* * *
```
static backward(ctx, *grad_outputs)
static backward(ctx, *grad_outputs)
```
定义用于区分操作的公式。
该功能将被所有子类覆盖。
它必须接受上下文`ctx`作为第一个参数,然后返回 [`forward()`](#torch.autograd.Function.forward "torch.autograd.Function.forward") 返回的输出数量,并且它应该返回与 [`forward()`的输入一样多的张量[](#torch.autograd.Function.forward "torch.autograd.Function.forward") 。 每个参数都是给定输出的梯度 w.r.t,每个返回值都应该是梯度 w.r.t。 相应的输入。
它必须接受上下文`ctx`作为第一个参数,然后返回 [`forward()`](#torch.autograd.Function.forward "torch.autograd.Function.forward") 返回的输出数量,并且它应该返回与 [`forward()`的输入一样多的张量 。 每个参数都是给定输出的梯度 w.r.t,每个返回值都应该是梯度 w.r.t。 相应的输入。
上下文可用于检索在前向传递过程中保存的张量。 它还具有属性`ctx.needs_input_grad`,它是一个布尔元组,表示每个输入是否需要渐变。 例如,如果 [`forward()`](#torch.autograd.Function.forward "torch.autograd.Function.forward") 的第一个输入需要进行 w.r.t.的梯度计算,则 [`backward()`](#torch.autograd.backward "torch.autograd.backward") 将具有`ctx.needs_input_grad[0] = True`。 输出。
* * *
```
static forward(ctx, *args, **kwargs)
static forward(ctx, *args, **kwargs)
```
执行操作。
......@@ -404,13 +404,13 @@ This function is to be overridden by all subclasses.
* * *
```
class torch.autograd.function._ContextMethodMixin
class torch.autograd.function._ContextMethodMixin
```
* * *
```
mark_dirty(*args)
mark_dirty(*args)
```
将给定张量标记为在就地操作中已修改。
......@@ -422,7 +422,7 @@ mark_dirty(*args)¶
* * *
```
mark_non_differentiable(*args)
mark_non_differentiable(*args)
```
将输出标记为不可微分。
......@@ -436,7 +436,7 @@ mark_non_differentiable(*args)¶
* * *
```
save_for_backward(*tensors)
save_for_backward(*tensors)
```
保存给定的张量以供将来调用`backward()`
......@@ -452,7 +452,7 @@ save_for_backward(*tensors)¶
* * *
```
torch.autograd.gradcheck(func, inputs, eps=1e-06, atol=1e-05, rtol=0.001, raise_exception=True, check_sparse_nnz=False, nondet_tol=0.0)
torch.autograd.gradcheck(func, inputs, eps=1e-06, atol=1e-05, rtol=0.001, raise_exception=True, check_sparse_nnz=False, nondet_tol=0.0)
```
检查相对于分析梯度 w.r.t 的小有限差分计算出的梯度。 `inputs`中的浮点类型为`requires_grad=True`的张量。
......@@ -492,7 +492,7 @@ Parameters
* * *
```
torch.autograd.gradgradcheck(func, inputs, grad_outputs=None, eps=1e-06, atol=1e-05, rtol=0.001, gen_non_contig_grad_outputs=False, raise_exception=True, nondet_tol=0.0)
torch.autograd.gradgradcheck(func, inputs, grad_outputs=None, eps=1e-06, atol=1e-05, rtol=0.001, gen_non_contig_grad_outputs=False, raise_exception=True, nondet_tol=0.0)
```
检查相对于分析梯度 w.r.t 的,通过小的有限差分计算出的梯度的梯度。 `inputs``grad_outputs`中的张量是浮点型且带有`requires_grad=True`的张量。
......@@ -540,7 +540,7 @@ Autograd 包括一个探查器,可让您检查模型中不同运算符的成
* * *
```
class torch.autograd.profiler.profile(enabled=True, use_cuda=False, record_shapes=False)
class torch.autograd.profiler.profile(enabled=True, use_cuda=False, record_shapes=False)
```
上下文管理器,用于管理 autograd profiler 状态并保存结果摘要。 在后台,它仅记录正在 C ++中执行的函数的事件,并将这些事件公开给 Python。 您可以将任何代码包装到其中,并且它只会报告 PyTorch 函数的运行时。
......@@ -578,7 +578,7 @@ torch::autograd::GraphRoot 691.816us 691.816us 100
* * *
```
export_chrome_trace(path)
export_chrome_trace(path)
```
将 EventList 导出为 Chrome 跟踪工具文件。
......@@ -592,7 +592,7 @@ Parameters
* * *
```
key_averages(group_by_input_shape=False)
key_averages(group_by_input_shape=False)
```
平均所有功能事件的键。
......@@ -606,7 +606,7 @@ Returns
* * *
```
property self_cpu_time_total
property self_cpu_time_total
```
返回花费在 CPU 上的总时间,作为所有事件中所有自身时间的总和。
......@@ -614,7 +614,7 @@ property self_cpu_time_total¶
* * *
```
table(sort_by=None, row_limit=100, header=None)
table(sort_by=None, row_limit=100, header=None)
```
将 EventList 打印为格式正确的表。
......@@ -630,7 +630,7 @@ Returns
* * *
```
total_average()
total_average()
```
平均所有事件。
......@@ -642,7 +642,7 @@ FunctionEventAvg 对象。
* * *
```
class torch.autograd.profiler.record_function(name)
class torch.autograd.profiler.record_function(name)
```
上下文管理器,在运行 autograd profiler 时将标签添加到 Python 代码块中。 在跟踪代码配置文件时很有用。
......@@ -681,7 +681,7 @@ CUDA time total: 0.000us
* * *
```
class torch.autograd.profiler.emit_nvtx(enabled=True, record_shapes=False)
class torch.autograd.profiler.emit_nvtx(enabled=True, record_shapes=False)
```
使每个自动分级操作发出 NXTX 范围的上下文管理器。
......@@ -726,7 +726,7 @@ Example
* * *
```
torch.autograd.profiler.load_nvprof(path)
torch.autograd.profiler.load_nvprof(path)
```
打开 nvprof 跟踪文件并解析 autograd 批注。
......@@ -740,7 +740,7 @@ Parameters
* * *
```
class torch.autograd.detect_anomaly
class torch.autograd.detect_anomaly
```
上下文管理器,可为 autograd 引擎启用异常检测。
......@@ -806,7 +806,7 @@ Example
* * *
```
class torch.autograd.set_detect_anomaly(mode)
class torch.autograd.set_detect_anomaly(mode)
```
上下文管理器,用于打开或关闭 autograd 引擎的异常检测。
......
此差异已折叠。
......@@ -135,7 +135,7 @@ NCCL 还提供了许多环境变量以进行微调。
* * *
```
torch.distributed.init_process_group(backend, init_method=None, timeout=datetime.timedelta(0, 1800), world_size=-1, rank=-1, store=None, group_name='')
torch.distributed.init_process_group(backend, init_method=None, timeout=datetime.timedelta(0, 1800), world_size=-1, rank=-1, store=None, group_name='')
```
初始化默认的分布式进程组,这还将初始化分布式程序包。
......@@ -171,7 +171,7 @@ There are 2 main ways to initialize a process group:
* * *
```
class torch.distributed.Backend
class torch.distributed.Backend
```
类似于枚举的可用后端类:GLOO,NCCL 和 MPI。
......@@ -187,7 +187,7 @@ class torch.distributed.Backend¶
* * *
```
torch.distributed.get_backend(group=<object object>)
torch.distributed.get_backend(group=<object object>)
```
返回给定进程组的后端。
......@@ -203,7 +203,7 @@ Parameters
* * *
```
torch.distributed.get_rank(group=<object object>)
torch.distributed.get_rank(group=<object object>)
```
返回当前进程组的等级
......@@ -221,7 +221,7 @@ Returns
* * *
```
torch.distributed.get_world_size(group=<object object>)
torch.distributed.get_world_size(group=<object object>)
```
返回当前进程组中的进程数
......@@ -237,7 +237,7 @@ Returns
* * *
```
torch.distributed.is_initialized()
torch.distributed.is_initialized()
```
检查默认进程组是否已初始化
......@@ -245,7 +245,7 @@ torch.distributed.is_initialized()¶
* * *
```
torch.distributed.is_mpi_available()
torch.distributed.is_mpi_available()
```
检查 MPI 后端是否可用。
......@@ -253,7 +253,7 @@ torch.distributed.is_mpi_available()¶
* * *
```
torch.distributed.is_nccl_available()
torch.distributed.is_nccl_available()
```
检查 NCCL 后端是否可用。
......@@ -323,7 +323,7 @@ dist.init_process_group(backend, init_method='file:///mnt/nfs/sharedfile',
* * *
```
torch.distributed.new_group(ranks=None, timeout=datetime.timedelta(0, 1800), backend=None)
torch.distributed.new_group(ranks=None, timeout=datetime.timedelta(0, 1800), backend=None)
```
创建一个新的分布式组。
......@@ -347,7 +347,7 @@ Returns
* * *
```
torch.distributed.send(tensor, dst, group=<object object>, tag=0)
torch.distributed.send(tensor, dst, group=<object object>, tag=0)
```
同步发送张量。
......@@ -365,7 +365,7 @@ Parameters
* * *
```
torch.distributed.recv(tensor, src=None, group=<object object>, tag=0)
torch.distributed.recv(tensor, src=None, group=<object object>, tag=0)
```
同步接收张量。
......@@ -393,7 +393,7 @@ Returns
* * *
```
torch.distributed.isend(tensor, dst, group=<object object>, tag=0)
torch.distributed.isend(tensor, dst, group=<object object>, tag=0)
```
异步发送张量。
......@@ -415,7 +415,7 @@ Returns
* * *
```
torch.distributed.irecv(tensor, src, group=<object object>, tag=0)
torch.distributed.irecv(tensor, src, group=<object object>, tag=0)
```
异步接收张量。
......@@ -451,7 +451,7 @@ A distributed request object. None, if not part of the group
* * *
```
torch.distributed.broadcast(tensor, src, group=<object object>, async_op=False)
torch.distributed.broadcast(tensor, src, group=<object object>, async_op=False)
```
向整个组广播张量。
......@@ -475,7 +475,7 @@ Returns
* * *
```
torch.distributed.all_reduce(tensor, op=ReduceOp.SUM, group=<object object>, async_op=False)
torch.distributed.all_reduce(tensor, op=ReduceOp.SUM, group=<object object>, async_op=False)
```
减少所有机器上的张量数据,以使所有机器都能得到最终结果。
......@@ -499,7 +499,7 @@ Async work handle, if async_op is set to True. None, if not async_op or if not p
* * *
```
torch.distributed.reduce(tensor, dst, op=ReduceOp.SUM, group=<object object>, async_op=False)
torch.distributed.reduce(tensor, dst, op=ReduceOp.SUM, group=<object object>, async_op=False)
```
减少所有机器上的张量数据。
......@@ -525,7 +525,7 @@ Async work handle, if async_op is set to True. None, if not async_op or if not p
* * *
```
torch.distributed.all_gather(tensor_list, tensor, group=<object object>, async_op=False)
torch.distributed.all_gather(tensor_list, tensor, group=<object object>, async_op=False)
```
在列表中收集整个组的张量。
......@@ -547,7 +547,7 @@ Async work handle, if async_op is set to True. None, if not async_op or if not p
* * *
```
torch.distributed.gather(tensor, gather_list=None, dst=0, group=<object object>, async_op=False)
torch.distributed.gather(tensor, gather_list=None, dst=0, group=<object object>, async_op=False)
```
在单个过程中收集张量列表。
......@@ -571,7 +571,7 @@ Async work handle, if async_op is set to True. None, if not async_op or if not p
* * *
```
torch.distributed.scatter(tensor, scatter_list=None, src=0, group=<object object>, async_op=False)
torch.distributed.scatter(tensor, scatter_list=None, src=0, group=<object object>, async_op=False)
```
将张量列表分散到组中的所有进程。
......@@ -597,7 +597,7 @@ Async work handle, if async_op is set to True. None, if not async_op or if not p
* * *
```
torch.distributed.barrier(group=<object object>, async_op=False)
torch.distributed.barrier(group=<object object>, async_op=False)
```
同步所有进程。
......@@ -617,7 +617,7 @@ Async work handle, if async_op is set to True. None, if not async_op or if not p
* * *
```
class torch.distributed.ReduceOp
class torch.distributed.ReduceOp
```
可用还原操作的类枚举类:`SUM``PRODUCT``MIN``MAX``BAND``BOR``BXOR`
......@@ -643,7 +643,7 @@ class torch.distributed.ReduceOp¶
* * *
```
class torch.distributed.reduce_op
class torch.distributed.reduce_op
```
减少操作的不推荐枚举类:`SUM``PRODUCT``MIN``MAX`
......@@ -697,7 +697,7 @@ dist.all_reduce_multigpu(tensor_list)
* * *
```
torch.distributed.broadcast_multigpu(tensor_list, src, group=<object object>, async_op=False, src_tensor=0)
torch.distributed.broadcast_multigpu(tensor_list, src, group=<object object>, async_op=False, src_tensor=0)
```
将张量广播到整个组,每个节点具有多个 GPU 张量。
......@@ -725,7 +725,7 @@ Async work handle, if async_op is set to True. None, if not async_op or if not p
* * *
```
torch.distributed.all_reduce_multigpu(tensor_list, op=ReduceOp.SUM, group=<object object>, async_op=False)
torch.distributed.all_reduce_multigpu(tensor_list, op=ReduceOp.SUM, group=<object object>, async_op=False)
```
减少所有机器上的张量数据,以使所有机器都能得到最终结果。 此功能可减少每个节点上的张量数量,而每个张量位于不同的 GPU 上。 因此,张量列表中的输入张量必须是 GPU 张量。 同样,张量列表中的每个张量都需要驻留在不同的 GPU 上。
......@@ -751,7 +751,7 @@ Async work handle, if async_op is set to True. None, if not async_op or if not p
* * *
```
torch.distributed.reduce_multigpu(tensor_list, dst, op=ReduceOp.SUM, group=<object object>, async_op=False, dst_tensor=0)
torch.distributed.reduce_multigpu(tensor_list, dst, op=ReduceOp.SUM, group=<object object>, async_op=False, dst_tensor=0)
```
减少所有计算机上多个 GPU 上的张量数据。 `tensor_list`中的每个张量应驻留在单独的 GPU 上
......@@ -781,7 +781,7 @@ Returns
* * *
```
torch.distributed.all_gather_multigpu(output_tensor_lists, input_tensor_list, group=<object object>, async_op=False)
torch.distributed.all_gather_multigpu(output_tensor_lists, input_tensor_list, group=<object object>, async_op=False)
```
在列表中收集整个组的张量。 `tensor_list`中的每个张量应驻留在单独的 GPU 上
......
此差异已折叠。
......@@ -74,7 +74,7 @@ Pytorch Hub 提供了便捷的 API,可通过`torch.hub.list()`浏览集线器
* * *
```
torch.hub.list(github, force_reload=False)
torch.hub.list(github, force_reload=False)
```
列出 &lt;cite&gt;github&lt;/cite&gt; hubconf 中可用的所有入口点。
......@@ -103,7 +103,7 @@ torch.hub.list(github, force_reload=False)¶
* * *
```
torch.hub.help(github, model, force_reload=False)
torch.hub.help(github, model, force_reload=False)
```
显示入口点&lt;cite&gt;模型&lt;/cite&gt;的文档字符串。
......@@ -126,7 +126,7 @@ Example
* * *
```
torch.hub.load(github, model, *args, **kwargs)
torch.hub.load(github, model, *args, **kwargs)
```
使用预训练的权重从 github 存储库加载模型。
......@@ -159,7 +159,7 @@ Example
* * *
```
torch.hub.download_url_to_file(url, dst, hash_prefix=None, progress=True)
torch.hub.download_url_to_file(url, dst, hash_prefix=None, progress=True)
```
将给定 URL 上的对象下载到本地路径。
......@@ -184,7 +184,7 @@ Example
* * *
```
torch.hub.load_state_dict_from_url(url, model_dir=None, map_location=None, progress=True, check_hash=False)
torch.hub.load_state_dict_from_url(url, model_dir=None, map_location=None, progress=True, check_hash=False)
```
将 Torch 序列化对象加载到给定的 URL。
......@@ -237,7 +237,7 @@ Example
* * *
```
torch.hub.set_dir(d)
torch.hub.set_dir(d)
```
(可选)将 hub_dir 设置为本地目录,以保存下载的模型&权重。
......
......@@ -129,13 +129,13 @@ TorchScript 是一种从 PyTorch 代码创建可序列化和可优化模型的
* * *
```
class torch.jit.ScriptModule
class torch.jit.ScriptModule
```
* * *
```
property code
property code
```
返回`forward`方法的内部图的漂亮打印表示形式(作为有效的 Python 语法)。 有关详细信息,请参见[检查代码](#inspecting-code)
......@@ -143,7 +143,7 @@ property code¶
* * *
```
property graph
property graph
```
返回`forward`方法的内部图形的字符串表示形式。 有关详细信息,请参见[解释图](#interpreting-graphs)
......@@ -151,7 +151,7 @@ property graph¶
* * *
```
save(f, _extra_files=ExtraFilesMap{})
save(f, _extra_files=ExtraFilesMap{})
```
有关详细信息,请参见 [`torch.jit.save`](#torch.jit.save "torch.jit.save")
......@@ -159,7 +159,7 @@ save(f, _extra_files=ExtraFilesMap{})¶
* * *
```
class torch.jit.ScriptFunction
class torch.jit.ScriptFunction
```
功能上与 [`ScriptModule`](#torch.jit.ScriptModule "torch.jit.ScriptModule") 等效,但是代表单个功能,没有任何属性或参数。
......@@ -167,7 +167,7 @@ class torch.jit.ScriptFunction¶
* * *
```
torch.jit.script(obj)
torch.jit.script(obj)
```
为函数或`nn.Module`编写脚本将检查源代码,使用 TorchScript 编译器将其编译为 TorchScript 代码,然后返回 [`ScriptModule`](#torch.jit.ScriptModule "torch.jit.ScriptModule")[`ScriptFunction`](#torch.jit.ScriptFunction "torch.jit.ScriptFunction") 。 TorchScript 本身是 Python 语言的子集,因此 Python 并非所有功能都可以使用,但是我们提供了足够的功能来在张量上进行计算并执行与控制有关的操作。 有关完整指南,请参见 [TorchScript 语言参考](#torchscript-language-reference)
......@@ -295,7 +295,7 @@ print(scripted_module(torch.randn(2, 2)))
* * *
```
torch.jit.trace(func, example_inputs, optimize=None, check_trace=True, check_inputs=None, check_tolerance=1e-5)
torch.jit.trace(func, example_inputs, optimize=None, check_trace=True, check_inputs=None, check_tolerance=1e-5)
```
跟踪一个函数并返回将使用即时编译进行优化的可执行文件或 [`ScriptFunction`](#torch.jit.ScriptFunction "torch.jit.ScriptFunction") 。 对于仅在`Tensor``Tensor`的列表,字典和元组上运行的代码,跟踪是理想的选择。
......@@ -385,7 +385,7 @@ module = torch.jit.trace(n, example_forward_input)
* * *
```
torch.jit.trace_module(mod, inputs, optimize=None, check_trace=True, check_inputs=None, check_tolerance=1e-5)
torch.jit.trace_module(mod, inputs, optimize=None, check_trace=True, check_inputs=None, check_tolerance=1e-5)
```
跟踪模块并返回可执行文件 [`ScriptModule`](#torch.jit.ScriptModule "torch.jit.ScriptModule") ,该文件将使用即时编译进行优化。 将模块传递到 [`torch.jit.trace`](#torch.jit.trace "torch.jit.trace") 时,仅运行并跟踪`forward`方法。 使用`trace_module`,您可以指定方法名称的字典作为示例输入,以跟踪下面的参数(请参见`example_inputs`)。
......@@ -451,7 +451,7 @@ module = torch.jit.trace_module(n, inputs)
* * *
```
torch.jit.save(m, f, _extra_files=ExtraFilesMap{})
torch.jit.save(m, f, _extra_files=ExtraFilesMap{})
```
保存此模块的脱机版本以在单独的过程中使用。 保存的模块将序列化此模块的所有方法,子模块,参数和属性。 可以使用`torch::jit::load(filename)`将其加载到 C ++ API 中,或者使用 [`torch.jit.load`](#torch.jit.load "torch.jit.load") 加载到 Python API 中。
......@@ -507,7 +507,7 @@ torch.jit.save(m, 'scriptmodule.pt', _extra_files=extra_files)
* * *
```
torch.jit.load(f, map_location=None, _extra_files=ExtraFilesMap{})
torch.jit.load(f, map_location=None, _extra_files=ExtraFilesMap{})
```
加载先前用 [`torch.jit.save`](#torch.jit.save "torch.jit.save") 保存的 [`ScriptModule`](#torch.jit.ScriptModule "torch.jit.ScriptModule")[`ScriptFunction`](#torch.jit.ScriptFunction "torch.jit.ScriptFunction")
......@@ -693,7 +693,7 @@ Warning
* * *
```
torch.jit.export(fn)
torch.jit.export(fn)
```
此修饰符指示`nn.Module`上的方法用作 [`ScriptModule`](#torch.jit.ScriptModule "torch.jit.ScriptModule") 的入口点,应进行编译。
......@@ -1555,7 +1555,7 @@ TorchScript 可以调用 Python 函数。 当将模型逐步转换为 TorchScrip
* * *
```
torch.jit.ignore(drop=False, **kwargs)
torch.jit.ignore(drop=False, **kwargs)
```
该装饰器向编译器指示应忽略函数或方法,而将其保留为 Python 函数。 这使您可以将代码保留在尚未与 TorchScript 兼容的模型中。 具有忽略功能的模型无法导出; 请改用 torch.jit.unused。
......@@ -1615,7 +1615,7 @@ m.save("m.pt")
* * *
```
torch.jit.unused(fn)
torch.jit.unused(fn)
```
此装饰器向编译器指示应忽略函数或方法,并用引发异常的方法代替。 这样,您就可以在尚不兼容 TorchScript 的模型中保留代码,并仍然可以导出模型。
......@@ -1656,7 +1656,7 @@ torch.jit.unused(fn)¶
* * *
```
torch.jit.is_scripting()
torch.jit.is_scripting()
```
在编译时返回 True 的函数,否则返回 False 的函数。 这对于使用@unused 装饰器尤其有用,可以将尚不兼容 TorchScript 的代码保留在模型中。 .. testcode:
......@@ -1824,7 +1824,7 @@ f = torch.jit.script(Foo({'hi': 2}))
#### [禁用用于调试的 JIT](#id59)
```
PYTORCH_JIT
PYTORCH_JIT
```
设置环境变量`PYTORCH_JIT=0`将禁用所有脚本和跟踪注释。 如果您的 TorchScript 模型之一存在难以调试的错误,则可以使用此标志来强制一切都使用本机 Python 运行。 由于此标志禁用了 TorchScript(脚本编写和跟踪),因此可以使用`pdb`之类的工具来调试模型代码。
......
此差异已折叠。
......@@ -860,7 +860,7 @@ torch.onnx.export(model, (dummy_input1, dummy_input2), 'model.onnx')
* * *
```
torch.onnx.export(model, args, f, export_params=True, verbose=False, training=False, input_names=None, output_names=None, aten=False, export_raw_ir=False, operator_export_type=None, opset_version=None, _retain_param_name=True, do_constant_folding=False, example_outputs=None, strip_doc_string=True, dynamic_axes=None, keep_initializers_as_inputs=None)
torch.onnx.export(model, args, f, export_params=True, verbose=False, training=False, input_names=None, output_names=None, aten=False, export_raw_ir=False, operator_export_type=None, opset_version=None, _retain_param_name=True, do_constant_folding=False, example_outputs=None, strip_doc_string=True, dynamic_axes=None, keep_initializers_as_inputs=None)
```
将模型导出为 ONNX 格式。 这个导出器运行一次您的模型,以便跟踪要导出的模型执行情况。 目前,它支持一组有限的动态模型(例如 RNN)。
......@@ -943,19 +943,19 @@ torch.onnx.export(model, args, f, export_params=True, verbose=False, training=Fa
* * *
```
torch.onnx.register_custom_op_symbolic(symbolic_name, symbolic_fn, opset_version)
torch.onnx.register_custom_op_symbolic(symbolic_name, symbolic_fn, opset_version)
```
* * *
```
torch.onnx.operators.shape_as_tensor(x)
torch.onnx.operators.shape_as_tensor(x)
```
* * *
```
torch.onnx.set_training(model, mode)
torch.onnx.set_training(model, mode)
```
上下文管理器将“模型”的训练模式临时设置为“模式”,当我们退出 with 块时将其重置。 如果模式为“无”,则为无操作。
......@@ -963,7 +963,7 @@ torch.onnx.set_training(model, mode)¶
* * *
```
torch.onnx.is_in_onnx_export()
torch.onnx.is_in_onnx_export()
```
检查它是否在 ONNX 导出的中间。 此函数在 torch.onnx.export()的中间返回 True。 torch.onnx.export 应该使用单线程执行。
\ No newline at end of file
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
......@@ -11,7 +11,7 @@
* * *
```
torch.utils.checkpoint.checkpoint(function, *args, **kwargs)
torch.utils.checkpoint.checkpoint(function, *args, **kwargs)
```
检查点模型或模型的一部分
......@@ -43,7 +43,7 @@ Warning
* * *
```
torch.utils.checkpoint.checkpoint_sequential(functions, segments, *inputs, **kwargs)
torch.utils.checkpoint.checkpoint_sequential(functions, segments, *inputs, **kwargs)
```
用于检查点顺序模型的辅助功能。
......
此差异已折叠。
此差异已折叠。
......@@ -5,7 +5,7 @@
* * *
```
torch.utils.dlpack.from_dlpack(dlpack) → Tensor
torch.utils.dlpack.from_dlpack(dlpack) → Tensor
```
将 DLPack 解码为张量。
......@@ -19,7 +19,7 @@ torch.utils.dlpack.from_dlpack(dlpack) → Tensor¶
* * *
```
torch.utils.dlpack.to_dlpack(tensor) → PyCapsule
torch.utils.dlpack.to_dlpack(tensor) → PyCapsule
```
返回表示张量的 DLPack。
......
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
此差异已折叠。
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册