提交 85444646 编写于 作者: W wizardforcel

2024-02-25 21:08:48

上级 c57b5f26
+ [Pytorch 2.2 中文教程和文档](README.md) + [Pytorch 2.2 中文教程和文档](README.md)
+ [PyTorch 2.2 中文文档](doc22_000.md) + [PyTorch 2.2 中文文档](doc22_000.md)
+ [社区](doc22_001.md) + [社区](doc22_001.md)
+ [PyTorch 治理 | 构建 + CI](doc22_002.md) + [PyTorch 治理 | 构建 + CI](doc22_002.md)
+ [PyTorch 贡献指南](doc22_003.md) + [PyTorch 贡献指南](doc22_003.md)
+ [PyTorch 设计哲学](doc22_004.md) + [PyTorch 设计哲学](doc22_004.md)
+ [PyTorch 治理 | 机制](doc22_005.md) + [PyTorch 治理 | 机制](doc22_005.md)
+ [PyTorch 治理 | 维护者](doc22_006.md) + [PyTorch 治理 | 维护者](doc22_006.md)
+ [开发者笔记](doc22_007.md) + [开发者笔记](doc22_007.md)
+ [CUDA 自动混合精度示例](doc22_008.md) + [CUDA 自动混合精度示例](doc22_008.md)
+ [自动求导机制](doc22_009.md) + [自动求导机制](doc22_009.md)
+ [广播语义](doc22_010.md) + [广播语义](doc22_010.md)
+ [CPU 线程和 TorchScript 推理](doc22_011.md) + [CPU 线程和 TorchScript 推理](doc22_011.md)
+ [CUDA 语义](doc22_012.md) + [CUDA 语义](doc22_012.md)
+ [分布式数据并行](doc22_013.md) + [分布式数据并行](doc22_013.md)
+ [扩展 PyTorch](doc22_014.md) + [扩展 PyTorch](doc22_014.md)
+ [使用 autograd.Function 扩展 torch.func](doc22_015.md) + [使用 autograd.Function 扩展 torch.func](doc22_015.md)
+ [常见问题](doc22_016.md) + [常见问题](doc22_016.md)
+ [Gradcheck 机制](doc22_017.md) + [Gradcheck 机制](doc22_017.md)
+ [HIP(ROCm)语义](doc22_018.md) + [HIP(ROCm)语义](doc22_018.md)
+ [大规模部署的功能](doc22_019.md) + [大规模部署的功能](doc22_019.md)
+ [模块](doc22_020.md) + [模块](doc22_020.md)
+ [MPS 后端](doc22_021.md) + [MPS 后端](doc22_021.md)
+ [多进程最佳实践](doc22_022.md) + [多进程最佳实践](doc22_022.md)
+ [数值精度](doc22_023.md) + [数值精度](doc22_023.md)
+ [可复制性](doc22_024.md) + [可复制性](doc22_024.md)
+ [序列化语义](doc22_025.md) + [序列化语义](doc22_025.md)
+ [Windows 常见问题](doc22_026.md) + [Windows 常见问题](doc22_026.md)
+ [语言绑定](doc22_027.md) + [语言绑定](doc22_027.md)
+ [C++](doc22_028.md) + [C++](doc22_028.md)
+ [torch::deploy 已经迁移到 pytorch/multipy](doc22_029.md) + [torch::deploy 已经迁移到 pytorch/multipy](doc22_029.md)
+ [Python API](doc22_030.md) + [Python API](doc22_030.md)
+ [torch](doc22_031.md) + [torch](doc22_031.md)
+ [torch.nn](doc22_032.md) + [torch.nn](doc22_032.md)
+ [torch.nn.functional](doc22_033.md) + [torch.nn.functional](doc22_033.md)
+ [torch.Tensor](doc22_034.md) + [torch.Tensor](doc22_034.md)
+ [张量属性](doc22_035.md) + [张量属性](doc22_035.md)
+ [Tensor Views](doc22_036.md) + [Tensor Views](doc22_036.md)
+ [自动混合精度包 - torch.amp](doc22_037.md) + [自动混合精度包 - torch.amp](doc22_037.md)
+ [自动微分包 - torch.autograd](doc22_038.md) + [自动微分包 - torch.autograd](doc22_038.md)
+ [torch.library](doc22_039.md) + [torch.library](doc22_039.md)
+ [torch.cpu](doc22_040.md) + [torch.cpu](doc22_040.md)
+ [torch.cuda](doc22_041.md) + [torch.cuda](doc22_041.md)
+ [了解 CUDA 内存使用情况](doc22_042.md) + [了解 CUDA 内存使用情况](doc22_042.md)
+ [torch.mps](doc22_043.md) + [torch.mps](doc22_043.md)
+ [torch.backends](doc22_044.md) + [torch.backends](doc22_044.md)
+ [torch.export](doc22_045.md) + [torch.export](doc22_045.md)
+ [分布式通信包 - torch.distributed](doc22_046.md) + [分布式通信包 - torch.distributed](doc22_046.md)
+ [通用加入上下文管理器](doc22_047.md) + [通用加入上下文管理器](doc22_047.md)
+ [Torch 分布式弹性](doc22_048.md) + [Torch 分布式弹性](doc22_048.md)
+ [FullyShardedDataParallel](doc22_049.md) + [FullyShardedDataParallel](doc22_049.md)
+ [分布式优化器](doc22_050.md) + [分布式优化器](doc22_050.md)
+ [张量并行 - torch.distributed.tensor.parallel](doc22_051.md) + [张量并行 - torch.distributed.tensor.parallel](doc22_051.md)
+ [分布式检查点 - torch.distributed.checkpoint](doc22_052.md) + [分布式检查点 - torch.distributed.checkpoint](doc22_052.md)
+ [概率分布 - torch.distributions](doc22_053.md) + [概率分布 - torch.distributions](doc22_053.md)
+ [torch.compiler](doc22_054.md) + [torch.compiler](doc22_054.md)
+ [torch.fft](doc22_055.md) + [torch.fft](doc22_055.md)
+ [torch.func](doc22_056.md) + [torch.func](doc22_056.md)
+ [torch.futures](doc22_057.md) + [torch.futures](doc22_057.md)
+ [torch.fx](doc22_058.md) + [torch.fx](doc22_058.md)
+ [torch.hub](doc22_059.md) + [torch.hub](doc22_059.md)
+ [TorchScript](doc22_060.md) + [TorchScript](doc22_060.md)
+ [torch.linalg](doc22_061.md) + [torch.linalg](doc22_061.md)
+ [torch.monitor](doc22_062.md) + [torch.monitor](doc22_062.md)
+ [torch.signal](doc22_063.md) + [torch.signal](doc22_063.md)
+ [torch.special](doc22_064.md) + [torch.special](doc22_064.md)
+ [torch.overrides](doc22_065.md) + [torch.overrides](doc22_065.md)
+ [torch.package](doc22_066.md) + [torch.package](doc22_066.md)
+ [torch.profiler](doc22_067.md) + [torch.profiler](doc22_067.md)
+ [torch.nn.init](doc22_068.md) + [torch.nn.init](doc22_068.md)
+ [torch.onnx](doc22_069.md) + [torch.onnx](doc22_069.md)
+ [torch.optim](doc22_070.md) + [torch.optim](doc22_070.md)
+ [复数](doc22_071.md) + [复数](doc22_071.md)
+ [DDP 通信钩子](doc22_072.md) + [DDP 通信钩子](doc22_072.md)
+ [管道并行](doc22_073.md) + [管道并行](doc22_073.md)
+ [量化](doc22_074.md) + [量化](doc22_074.md)
+ [分布式 RPC 框架](doc22_075.md) + [分布式 RPC 框架](doc22_075.md)
+ [torch.random](doc22_076.md) + [torch.random](doc22_076.md)
+ [torch.masked](doc22_077.md) + [torch.masked](doc22_077.md)
+ [torch.nested](doc22_078.md) + [torch.nested](doc22_078.md)
+ [torch.sparse](doc22_079.md) + [torch.sparse](doc22_079.md)
+ [torch.Storage](doc22_080.md) + [torch.Storage](doc22_080.md)
+ [torch.testing](doc22_081.md) + [torch.testing](doc22_081.md)
+ [torch.utils](doc22_082.md) + [torch.utils](doc22_082.md)
+ [基准工具 - torch.utils.benchmark](doc22_083.md) + [基准工具 - torch.utils.benchmark](doc22_083.md)
+ [torch.utils.bottleneck](doc22_084.md) + [torch.utils.bottleneck](doc22_084.md)
+ [torch.utils.checkpoint](doc22_085.md) + [torch.utils.checkpoint](doc22_085.md)
+ [torch.utils.cpp_extension](doc22_086.md) + [torch.utils.cpp_extension](doc22_086.md)
+ [torch.utils.data](doc22_087.md) + [torch.utils.data](doc22_087.md)
+ [torch.utils.deterministic](doc22_088.md) + [torch.utils.deterministic](doc22_088.md)
+ [JIT Utils - torch.utils.jit](doc22_089.md) + [JIT Utils - torch.utils.jit](doc22_089.md)
+ [torch.utils.dlpack](doc22_090.md) + [torch.utils.dlpack](doc22_090.md)
+ [torch.utils.mobile_optimizer](doc22_091.md) + [torch.utils.mobile_optimizer](doc22_091.md)
+ [torch.utils.model_zoo](doc22_092.md) + [torch.utils.model_zoo](doc22_092.md)
+ [torch.utils.tensorboard](doc22_093.md) + [torch.utils.tensorboard](doc22_093.md)
+ [类型信息](doc22_094.md) + [类型信息](doc22_094.md)
+ [命名张量](doc22_095.md) + [命名张量](doc22_095.md)
+ [具名张量操作覆盖范围](doc22_096.md) + [具名张量操作覆盖范围](doc22_096.md)
+ [torch.__config__](doc22_097.md) + [torch.__config__](doc22_097.md)
+ [torch._logging](doc22_098.md) + [torch._logging](doc22_098.md)
+ [PyTorch 2.2 中文教程](tut22_000.md) + [PyTorch 2.2 中文教程](tut22_000.md)
+ [PyTorch 秘籍](tut22_001.md) + [PyTorch 秘籍](tut22_001.md)
+ [PyTorch 秘籍](tut22_002.md) + [PyTorch 秘籍](tut22_002.md)
+ [PyTorch 原型示例](tut22_003.md) + [PyTorch 原型示例](tut22_003.md)
+ [PyTorch 介绍](tut22_004.md) + [PyTorch 介绍](tut22_004.md)
+ [学习基础知识](tut22_005.md) + [学习基础知识](tut22_005.md)
+ [快速入门](tut22_006.md) + [快速入门](tut22_006.md)
+ [张量](tut22_007.md) + [张量](tut22_007.md)
+ [数据集和 DataLoaders](tut22_008.md) + [数据集和 DataLoaders](tut22_008.md)
+ [转换](tut22_009.md) + [转换](tut22_009.md)
+ [构建神经网络](tut22_010.md) + [构建神经网络](tut22_010.md)
+ [使用 torch.autograd 进行自动微分](tut22_011.md) + [使用 torch.autograd 进行自动微分](tut22_011.md)
+ [优化模型参数](tut22_012.md) + [优化模型参数](tut22_012.md)
+ [保存和加载模型](tut22_013.md) + [保存和加载模型](tut22_013.md)
+ [在 YouTube 上介绍 PyTorch](tut22_014.md) + [在 YouTube 上介绍 PyTorch](tut22_014.md)
+ [PyTorch 介绍 - YouTube 系列](tut22_015.md) + [PyTorch 介绍 - YouTube 系列](tut22_015.md)
+ [PyTorch 简介](tut22_016.md) + [PyTorch 简介](tut22_016.md)
+ [PyTorch 张量介绍](tut22_017.md) + [PyTorch 张量介绍](tut22_017.md)
+ [自动微分的基础知识](tut22_018.md) + [自动微分的基础知识](tut22_018.md)
+ [使用 PyTorch 构建模型](tut22_019.md) + [使用 PyTorch 构建模型](tut22_019.md)
+ [PyTorch TensorBoard 支持](tut22_020.md) + [PyTorch TensorBoard 支持](tut22_020.md)
+ [使用 PyTorch 进行训练](tut22_021.md) + [使用 PyTorch 进行训练](tut22_021.md)
+ [使用 Captum 进行模型理解](tut22_022.md) + [使用 Captum 进行模型理解](tut22_022.md)
+ [学习 PyTorch](tut22_023.md) + [学习 PyTorch](tut22_023.md)
+ [使用 PyTorch 进行深度学习:60 分钟入门](tut22_024.md) + [使用 PyTorch 进行深度学习:60 分钟入门](tut22_024.md)
+ [通过示例学习 PyTorch](tut22_025.md) + [通过示例学习 PyTorch](tut22_025.md)
+ [torch.nn 到底是什么?](tut22_026.md) + [torch.nn 到底是什么?](tut22_026.md)
+ [使用 TensorBoard 可视化模型、数据和训练](tut22_027.md) + [使用 TensorBoard 可视化模型、数据和训练](tut22_027.md)
+ [图像和视频](tut22_028.md) + [图像和视频](tut22_028.md)
+ [TorchVision 目标检测微调教程](tut22_029.md) + [TorchVision 目标检测微调教程](tut22_029.md)
+ [计算机视觉迁移学习教程](tut22_030.md) + [计算机视觉迁移学习教程](tut22_030.md)
+ [对抗性示例生成](tut22_031.md) + [对抗性示例生成](tut22_031.md)
+ [DCGAN 教程](tut22_032.md) + [DCGAN 教程](tut22_032.md)
+ [空间变换网络教程](tut22_033.md) + [空间变换网络教程](tut22_033.md)
+ [优化用于部署的 Vision Transformer 模型](tut22_034.md) + [优化用于部署的 Vision Transformer 模型](tut22_034.md)
+ [使用 PyTorch 和 TIAToolbox 进行全幻灯片图像分类](tut22_035.md) + [使用 PyTorch 和 TIAToolbox 进行全幻灯片图像分类](tut22_035.md)
+ [音频](tut22_036.md) + [音频](tut22_036.md)
+ [音频 I/O](tut22_037.md) + [音频 I/O](tut22_037.md)
+ [音频重采样](tut22_038.md) + [音频重采样](tut22_038.md)
+ [音频数据增强](tut22_039.md) + [音频数据增强](tut22_039.md)
+ [音频特征提取](tut22_040.md) + [音频特征提取](tut22_040.md)
+ [音频特征增强](tut22_041.md) + [音频特征增强](tut22_041.md)
+ [音频数据集](tut22_042.md) + [音频数据集](tut22_042.md)
+ [Wav2Vec2 语音识别](tut22_043.md) + [Wav2Vec2 语音识别](tut22_043.md)
+ [使用 Tacotron2 进行文本转语音](tut22_044.md) + [使用 Tacotron2 进行文本转语音](tut22_044.md)
+ [使用 Wav2Vec2 进行强制对齐](tut22_045.md) + [使用 Wav2Vec2 进行强制对齐](tut22_045.md)
+ [文本](tut22_046.md) + [文本](tut22_046.md)
+ [使用 nn.Transformer 和 torchtext 进行语言建模](tut22_047.md) + [使用 nn.Transformer 和 torchtext 进行语言建模](tut22_047.md)
+ [使用 Better Transformer 进行快速 Transformer 推理](tut22_048.md) + [使用 Better Transformer 进行快速 Transformer 推理](tut22_048.md)
+ [从头开始的自然语言处理:使用字符级 RNN 对名称进行分类](tut22_049.md) + [从头开始的自然语言处理:使用字符级 RNN 对名称进行分类](tut22_049.md)
+ [从零开始的 NLP:使用字符级 RNN 生成名字](tut22_050.md) + [从零开始的 NLP:使用字符级 RNN 生成名字](tut22_050.md)
+ [NLP 从头开始:使用序列到序列网络和注意力进行翻译](tut22_051.md) + [NLP 从头开始:使用序列到序列网络和注意力进行翻译](tut22_051.md)
+ [使用 torchtext 库进行文本分类](tut22_052.md) + [使用 torchtext 库进行文本分类](tut22_052.md)
+ [使用 nn.Transformer 和 torchtext 进行语言翻译](tut22_053.md) + [使用 nn.Transformer 和 torchtext 进行语言翻译](tut22_053.md)
+ [使用 Torchtext 预处理自定义文本数据集](tut22_054.md) + [使用 Torchtext 预处理自定义文本数据集](tut22_054.md)
+ [后端](tut22_055.md) + [后端](tut22_055.md)
+ [ONNX 简介](tut22_056.md) + [ONNX 简介](tut22_056.md)
+ [强化学习](tut22_057.md) + [强化学习](tut22_057.md)
+ [强化学习(DQN)教程](tut22_058.md) + [强化学习(DQN)教程](tut22_058.md)
+ [使用 TorchRL 的强化学习(PPO)教程](tut22_059.md) + [使用 TorchRL 的强化学习(PPO)教程](tut22_059.md)
+ [训练一个玛丽奥玩游戏的 RL 代理](tut22_060.md) + [训练一个玛丽奥玩游戏的 RL 代理](tut22_060.md)
+ [Pendulum:使用 TorchRL 编写您的环境和转换](tut22_061.md) + [Pendulum:使用 TorchRL 编写您的环境和转换](tut22_061.md)
+ [在生产环境中部署 PyTorch 模型](tut22_062.md) + [在生产环境中部署 PyTorch 模型](tut22_062.md)
+ [通过 Flask 在 Python 中部署 PyTorch 的 REST API](tut22_063.md) + [通过 Flask 在 Python 中部署 PyTorch 的 REST API](tut22_063.md)
+ [TorchScript 介绍](tut22_064.md) + [TorchScript 介绍](tut22_064.md)
+ [在 C++中加载 TorchScript 模型](tut22_065.md) + [在 C++中加载 TorchScript 模型](tut22_065.md)
+ [(可选)将模型从 PyTorch 导出到 ONNX 并使用 ONNX Runtime 运行](tut22_066.md) + [(可选)将模型从 PyTorch 导出到 ONNX 并使用 ONNX Runtime 运行](tut22_066.md)
+ [树莓派 4 上的实时推理(30 fps!)](tut22_067.md) + [树莓派 4 上的实时推理(30 fps!)](tut22_067.md)
+ [PyTorch 性能分析](tut22_068.md) + [PyTorch 性能分析](tut22_068.md)
+ [分析您的 PyTorch 模块](tut22_069.md) + [分析您的 PyTorch 模块](tut22_069.md)
+ [全面跟踪分析简介](tut22_070.md) + [全面跟踪分析简介](tut22_070.md)
+ [使用整体追踪分析的追踪差异](tut22_071.md) + [使用整体追踪分析的追踪差异](tut22_071.md)
+ [代码转换与 FX](tut22_072.md) + [代码转换与 FX](tut22_072.md)
+ [(beta)在 FX 中构建一个卷积/批量归一化融合器](tut22_073.md) + [(beta)在 FX 中构建一个卷积/批量归一化融合器](tut22_073.md)
+ [(beta)使用 FX 构建一个简单的 CPU 性能分析器](tut22_074.md) + [(beta)使用 FX 构建一个简单的 CPU 性能分析器](tut22_074.md)
+ [前端 APIs](tut22_075.md) + [前端 APIs](tut22_075.md)
+ [(beta)PyTorch 中的通道最后内存格式](tut22_076.md) + [(beta)PyTorch 中的通道最后内存格式](tut22_076.md)
+ [前向模式自动微分(Beta)](tut22_077.md) + [前向模式自动微分(Beta)](tut22_077.md)
+ [雅可比矩阵、海森矩阵、hvp、vhp 等:组合函数转换](tut22_078.md) + [雅可比矩阵、海森矩阵、hvp、vhp 等:组合函数转换](tut22_078.md)
+ [模型集成](tut22_079.md) + [模型集成](tut22_079.md)
+ [每个样本的梯度](tut22_080.md) + [每个样本的梯度](tut22_080.md)
+ [使用 PyTorch C++ 前端](tut22_081.md) + [使用 PyTorch C++ 前端](tut22_081.md)
+ [TorchScript 中的动态并行性](tut22_082.md) + [TorchScript 中的动态并行性](tut22_082.md)
+ [C++前端的 Autograd](tut22_083.md) + [C++前端的 Autograd](tut22_083.md)
+ [扩展 PyTorch](tut22_084.md) + [扩展 PyTorch](tut22_084.md)
+ [使用自定义函数进行双向传播](tut22_085.md) + [使用自定义函数进行双向传播](tut22_085.md)
+ [使用自定义函数融合卷积和批量归一化](tut22_086.md) + [使用自定义函数融合卷积和批量归一化](tut22_086.md)
+ [自定义 C++和 CUDA 扩展](tut22_087.md) + [自定义 C++和 CUDA 扩展](tut22_087.md)
+ [使用自定义 C++运算符扩展 TorchScript](tut22_088.md) + [使用自定义 C++运算符扩展 TorchScript](tut22_088.md)
+ [使用自定义 C++类扩展 TorchScript](tut22_089.md) + [使用自定义 C++类扩展 TorchScript](tut22_089.md)
+ [在 C++中注册一个分发的运算符](tut22_090.md) + [在 C++中注册一个分发的运算符](tut22_090.md)
+ [在 C++中为新后端扩展调度程序](tut22_091.md) + [在 C++中为新后端扩展调度程序](tut22_091.md)
+ [通过 PrivateUse1 促进新后端集成](tut22_092.md) + [通过 PrivateUse1 促进新后端集成](tut22_092.md)
+ [模型优化](tut22_093.md) + [模型优化](tut22_093.md)
+ [使用 TensorBoard 的 PyTorch 分析器](tut22_094.md) + [使用 TensorBoard 的 PyTorch 分析器](tut22_094.md)
+ [使用 Ray Tune 进行超参数调整](tut22_095.md) + [使用 Ray Tune 进行超参数调整](tut22_095.md)
+ [参数化教程](tut22_096.md) + [参数化教程](tut22_096.md)
+ [修剪教程](tut22_097.md) + [修剪教程](tut22_097.md)
+ [(beta)LSTM 单词语言模型上的动态量化](tut22_098.md) + [(beta)LSTM 单词语言模型上的动态量化](tut22_098.md)
+ [(beta)BERT 上的动态量化](tut22_099.md) + [(beta)BERT 上的动态量化](tut22_099.md)
+ [(beta)计算机视觉的量化迁移学习教程](tut22_100.md) + [(beta)计算机视觉的量化迁移学习教程](tut22_100.md)
+ [(beta)在 PyTorch 中使用急切模式的静态量化](tut22_101.md) + [(beta)在 PyTorch 中使用急切模式的静态量化](tut22_101.md)
+ [从第一原则理解 PyTorch Intel CPU 性能](tut22_102.md) + [从第一原则理解 PyTorch Intel CPU 性能](tut22_102.md)
+ [从第一原则开始理解 PyTorch 英特尔 CPU 性能(第 2 部分)](tut22_103.md) + [从第一原则开始理解 PyTorch 英特尔 CPU 性能(第 2 部分)](tut22_103.md)
+ [开始 - 用 nvFuser 加速您的脚本](tut22_104.md) + [开始 - 用 nvFuser 加速您的脚本](tut22_104.md)
+ [使用 Ax 进行多目标 NAS](tut22_105.md) + [使用 Ax 进行多目标 NAS](tut22_105.md)
+ [介绍 torch.compile](tut22_106.md) + [介绍 torch.compile](tut22_106.md)
+ [电感器 CPU 后端调试和性能分析](tut22_107.md) + [电感器 CPU 后端调试和性能分析](tut22_107.md)
+ [(Beta)使用缩放点积注意力(SDPA)实现高性能 Transformer](tut22_108.md) + [(Beta)使用缩放点积注意力(SDPA)实现高性能 Transformer](tut22_108.md)
+ [知识蒸馏教程](tut22_109.md) + [知识蒸馏教程](tut22_109.md)
+ [并行和分布式训练](tut22_110.md) + [并行和分布式训练](tut22_110.md)
+ [分布式和并行训练教程](tut22_111.md) + [分布式和并行训练教程](tut22_111.md)
+ [PyTorch 分布式概述](tut22_112.md) + [PyTorch 分布式概述](tut22_112.md)
+ [PyTorch 中的分布式数据并行 - 视频教程](tut22_113.md) + [PyTorch 中的分布式数据并行 - 视频教程](tut22_113.md)
+ [单机模型并行最佳实践](tut22_114.md) + [单机模型并行最佳实践](tut22_114.md)
+ [开始使用分布式数据并行](tut22_115.md) + [开始使用分布式数据并行](tut22_115.md)
+ [使用 PyTorch 编写分布式应用程序](tut22_116.md) + [使用 PyTorch 编写分布式应用程序](tut22_116.md)
+ [开始使用完全分片数据并行(FSDP)](tut22_117.md) + [开始使用完全分片数据并行(FSDP)](tut22_117.md)
+ [使用完全分片数据并行(FSDP)进行高级模型训练。](tut22_118.md) + [使用完全分片数据并行(FSDP)进行高级模型训练。](tut22_118.md)
+ [使用 Cpp 扩展自定义流程组后端](tut22_119.md) + [使用 Cpp 扩展自定义流程组后端](tut22_119.md)
+ [使用分布式 RPC 框架入门](tut22_120.md) + [使用分布式 RPC 框架入门](tut22_120.md)
+ [使用分布式 RPC 框架实现参数服务器](tut22_121.md) + [使用分布式 RPC 框架实现参数服务器](tut22_121.md)
+ [使用 RPC 进行分布式管道并行](tut22_122.md) + [使用 RPC 进行分布式管道并行](tut22_122.md)
+ [使用异步执行实现批量 RPC 处理](tut22_123.md) + [使用异步执行实现批量 RPC 处理](tut22_123.md)
+ [将分布式 DataParallel 与分布式 RPC 框架结合起来](tut22_124.md) + [将分布式 DataParallel 与分布式 RPC 框架结合起来](tut22_124.md)
+ [使用管道并行性训练 Transformer 模型](tut22_125.md) + [使用管道并行性训练 Transformer 模型](tut22_125.md)
+ [使用 Distributed Data Parallel 和 Pipeline Parallelism 训练 Transformer 模型](tut22_126.md) + [使用 Distributed Data Parallel 和 Pipeline Parallelism 训练 Transformer 模型](tut22_126.md)
+ [使用 Join 上下文管理器进行不均匀输入的分布式训练](tut22_127.md) + [使用 Join 上下文管理器进行不均匀输入的分布式训练](tut22_127.md)
+ [移动设备](tut22_128.md) + [移动设备](tut22_128.md)
+ [在 iOS 上进行图像分割 DeepLabV3](tut22_129.md) + [在 iOS 上进行图像分割 DeepLabV3](tut22_129.md)
+ [在 Android 上进行图像分割 DeepLabV3](tut22_130.md) + [在 Android 上进行图像分割 DeepLabV3](tut22_130.md)
+ [推荐系统](tut22_131.md) + [推荐系统](tut22_131.md)
+ [TorchRec 简介](tut22_132.md) + [TorchRec 简介](tut22_132.md)
+ [探索 TorchRec 分片](tut22_133.md) + [探索 TorchRec 分片](tut22_133.md)
+ [多模态](tut22_134.md) + [多模态](tut22_134.md)
+ [TorchMultimodal 教程:微调 FLAVA](tut22_135.md) + [TorchMultimodal 教程:微调 FLAVA](tut22_135.md)
\ No newline at end of file \ No newline at end of file
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册