From 7124389110955410f8c3d9ce4e2eb1fdf0037b9f Mon Sep 17 00:00:00 2001 From: wizardforcel Date: Mon, 5 Feb 2024 16:24:49 +0800 Subject: [PATCH] 2024-02-05 16:24:49 --- SUMMARY.md | 3 +- docs/2.2/README.md | 1 + docs/2.2/SUMMARY.md | 236 ++++++++++++++++++++++++++++++++++++++++++++ 3 files changed, 239 insertions(+), 1 deletion(-) create mode 100644 docs/2.2/README.md create mode 100644 docs/2.2/SUMMARY.md diff --git a/SUMMARY.md b/SUMMARY.md index e5e1a579..dccf60d4 100644 --- a/SUMMARY.md +++ b/SUMMARY.md @@ -1,5 +1,6 @@ + [PyTorch 中文教程 & 文档](README.md) -+ [PyTorch 中文官方教程 1.7](docs/1.7/README.md) ++ [PyTorch 2.2 中文教程和文档](docs/2.2/README.md) ++ [PyTorch 1.7 中文官方教程](docs/1.7/README.md) + [PyTorch 1.4 教程&文档](docs/1.4/README.md) + [PyTorch 1.0 中文文档](docs/1.0/README.md) + [PyTorch 0.4 中文文档](docs/0.4/README.md) diff --git a/docs/2.2/README.md b/docs/2.2/README.md new file mode 100644 index 00000000..6ec0bd7e --- /dev/null +++ b/docs/2.2/README.md @@ -0,0 +1 @@ +# Pytorch 2.2 中文教程和文档 \ No newline at end of file diff --git a/docs/2.2/SUMMARY.md b/docs/2.2/SUMMARY.md new file mode 100644 index 00000000..66c82993 --- /dev/null +++ b/docs/2.2/SUMMARY.md @@ -0,0 +1,236 @@ ++ [Pytorch 2.2 中文教程和文档](README.md) ++ [PyTorch 2.2 中文文档](doc22_000.md) ++ [社区](doc22_001.md) ++ [PyTorch 治理 | 构建 + CI](doc22_002.md) ++ [PyTorch 贡献指南](doc22_003.md) ++ [PyTorch 设计哲学](doc22_004.md) ++ [PyTorch 治理 | 机制](doc22_005.md) ++ [PyTorch 治理 | 维护者](doc22_006.md) ++ [开发者笔记](doc22_007.md) ++ [CUDA 自动混合精度示例](doc22_008.md) ++ [自动求导机制](doc22_009.md) ++ [广播语义](doc22_010.md) ++ [CPU 线程和 TorchScript 推理](doc22_011.md) ++ [CUDA 语义](doc22_012.md) ++ [分布式数据并行](doc22_013.md) ++ [扩展 PyTorch](doc22_014.md) ++ [使用 autograd.Function 扩展 torch.func](doc22_015.md) ++ [常见问题](doc22_016.md) ++ [Gradcheck 机制](doc22_017.md) ++ [HIP(ROCm)语义](doc22_018.md) ++ [大规模部署的功能](doc22_019.md) ++ [模块](doc22_020.md) ++ [MPS 后端](doc22_021.md) ++ [多进程最佳实践](doc22_022.md) ++ [数值精度](doc22_023.md) ++ [可复制性](doc22_024.md) ++ [序列化语义](doc22_025.md) ++ [Windows 常见问题](doc22_026.md) ++ [语言绑定](doc22_027.md) ++ [C++](doc22_028.md) ++ [torch::deploy 已经迁移到 pytorch/multipy](doc22_029.md) ++ [Python API](doc22_030.md) ++ [torch](doc22_031.md) ++ [torch.nn](doc22_032.md) ++ [torch.nn.functional](doc22_033.md) ++ [torch.Tensor](doc22_034.md) ++ [张量属性](doc22_035.md) ++ [Tensor Views](doc22_036.md) ++ [自动混合精度包 - torch.amp](doc22_037.md) ++ [自动微分包 - torch.autograd](doc22_038.md) ++ [torch.library](doc22_039.md) ++ [torch.cpu](doc22_040.md) ++ [torch.cuda](doc22_041.md) ++ [了解 CUDA 内存使用情况](doc22_042.md) ++ [torch.mps](doc22_043.md) ++ [torch.backends](doc22_044.md) ++ [torch.export](doc22_045.md) ++ [分布式通信包 - torch.distributed](doc22_046.md) ++ [通用加入上下文管理器](doc22_047.md) ++ [Torch 分布式弹性](doc22_048.md) ++ [FullyShardedDataParallel](doc22_049.md) ++ [分布式优化器](doc22_050.md) ++ [张量并行 - torch.distributed.tensor.parallel](doc22_051.md) ++ [分布式检查点 - torch.distributed.checkpoint](doc22_052.md) ++ [概率分布 - torch.distributions](doc22_053.md) ++ [torch.compiler](doc22_054.md) ++ [torch.fft](doc22_055.md) ++ [torch.func](doc22_056.md) ++ [torch.futures](doc22_057.md) ++ [torch.fx](doc22_058.md) ++ [torch.hub](doc22_059.md) ++ [TorchScript](doc22_060.md) ++ [torch.linalg](doc22_061.md) ++ [torch.monitor](doc22_062.md) ++ [torch.signal](doc22_063.md) ++ [torch.special](doc22_064.md) ++ [torch.overrides](doc22_065.md) ++ [torch.package](doc22_066.md) ++ [torch.profiler](doc22_067.md) ++ [torch.nn.init](doc22_068.md) ++ [torch.onnx](doc22_069.md) ++ [torch.optim](doc22_070.md) ++ [复数](doc22_071.md) ++ [DDP 通信钩子](doc22_072.md) ++ [管道并行](doc22_073.md) ++ [量化](doc22_074.md) ++ [分布式 RPC 框架](doc22_075.md) ++ [torch.random](doc22_076.md) ++ [torch.masked](doc22_077.md) ++ [torch.nested](doc22_078.md) ++ [torch.sparse](doc22_079.md) ++ [torch.Storage](doc22_080.md) ++ [torch.testing](doc22_081.md) ++ [torch.utils](doc22_082.md) ++ [基准工具 - torch.utils.benchmark](doc22_083.md) ++ [torch.utils.bottleneck](doc22_084.md) ++ [torch.utils.checkpoint](doc22_085.md) ++ [torch.utils.cpp_extension](doc22_086.md) ++ [torch.utils.data](doc22_087.md) ++ [torch.utils.deterministic](doc22_088.md) ++ [JIT Utils - torch.utils.jit](doc22_089.md) ++ [torch.utils.dlpack](doc22_090.md) ++ [torch.utils.mobile_optimizer](doc22_091.md) ++ [torch.utils.model_zoo](doc22_092.md) ++ [torch.utils.tensorboard](doc22_093.md) ++ [类型信息](doc22_094.md) ++ [命名张量](doc22_095.md) ++ [具名张量操作覆盖范围](doc22_096.md) ++ [torch.__config__](doc22_097.md) ++ [torch._logging](doc22_098.md) ++ [PyTorch 2.2 中文教程](tut22_000.md) ++ [PyTorch 秘籍](tut22_001.md) ++ [PyTorch 秘籍](tut22_002.md) ++ [PyTorch 原型示例](tut22_003.md) ++ [PyTorch 介绍](tut22_004.md) ++ [学习基础知识](tut22_005.md) ++ [快速入门](tut22_006.md) ++ [张量](tut22_007.md) ++ [数据集和 DataLoaders](tut22_008.md) ++ [转换](tut22_009.md) ++ [构建神经网络](tut22_010.md) ++ [使用 torch.autograd 进行自动微分](tut22_011.md) ++ [优化模型参数](tut22_012.md) ++ [保存和加载模型](tut22_013.md) ++ [在 YouTube 上介绍 PyTorch](tut22_014.md) ++ [PyTorch 介绍 - YouTube 系列](tut22_015.md) ++ [PyTorch 简介](tut22_016.md) ++ [PyTorch 张量介绍](tut22_017.md) ++ [自动微分的基础知识](tut22_018.md) ++ [使用 PyTorch 构建模型](tut22_019.md) ++ [PyTorch TensorBoard 支持](tut22_020.md) ++ [使用 PyTorch 进行训练](tut22_021.md) ++ [使用 Captum 进行模型理解](tut22_022.md) ++ [学习 PyTorch](tut22_023.md) ++ [使用 PyTorch 进行深度学习:60 分钟入门](tut22_024.md) ++ [通过示例学习 PyTorch](tut22_025.md) ++ [torch.nn 到底是什么?](tut22_026.md) ++ [使用 TensorBoard 可视化模型、数据和训练](tut22_027.md) ++ [图像和视频](tut22_028.md) ++ [TorchVision 目标检测微调教程](tut22_029.md) ++ [计算机视觉迁移学习教程](tut22_030.md) ++ [对抗性示例生成](tut22_031.md) ++ [DCGAN 教程](tut22_032.md) ++ [空间变换网络教程](tut22_033.md) ++ [优化用于部署的 Vision Transformer 模型](tut22_034.md) ++ [使用 PyTorch 和 TIAToolbox 进行全幻灯片图像分类](tut22_035.md) ++ [音频](tut22_036.md) ++ [音频 I/O](tut22_037.md) ++ [音频重采样](tut22_038.md) ++ [音频数据增强](tut22_039.md) ++ [音频特征提取](tut22_040.md) ++ [音频特征增强](tut22_041.md) ++ [音频数据集](tut22_042.md) ++ [Wav2Vec2 语音识别](tut22_043.md) ++ [使用 Tacotron2 进行文本转语音](tut22_044.md) ++ [使用 Wav2Vec2 进行强制对齐](tut22_045.md) ++ [文本](tut22_046.md) ++ [使用 nn.Transformer 和 torchtext 进行语言建模](tut22_047.md) ++ [使用 Better Transformer 进行快速 Transformer 推理](tut22_048.md) ++ [从头开始的自然语言处理:使用字符级 RNN 对名称进行分类](tut22_049.md) ++ [从零开始的 NLP:使用字符级 RNN 生成名字](tut22_050.md) ++ [NLP 从头开始:使用序列到序列网络和注意力进行翻译](tut22_051.md) ++ [使用 torchtext 库进行文本分类](tut22_052.md) ++ [使用 nn.Transformer 和 torchtext 进行语言翻译](tut22_053.md) ++ [使用 Torchtext 预处理自定义文本数据集](tut22_054.md) ++ [后端](tut22_055.md) ++ [ONNX 简介](tut22_056.md) ++ [强化学习](tut22_057.md) ++ [强化学习(DQN)教程](tut22_058.md) ++ [使用 TorchRL 的强化学习(PPO)教程](tut22_059.md) ++ [训练一个玛丽奥玩游戏的 RL 代理](tut22_060.md) ++ [Pendulum:使用 TorchRL 编写您的环境和转换](tut22_061.md) ++ [在生产环境中部署 PyTorch 模型](tut22_062.md) ++ [通过 Flask 在 Python 中部署 PyTorch 的 REST API](tut22_063.md) ++ [TorchScript 介绍](tut22_064.md) ++ [在 C++中加载 TorchScript 模型](tut22_065.md) ++ [(可选)将模型从 PyTorch 导出到 ONNX 并使用 ONNX Runtime 运行](tut22_066.md) ++ [树莓派 4 上的实时推理(30 fps!)](tut22_067.md) ++ [PyTorch 性能分析](tut22_068.md) ++ [分析您的 PyTorch 模块](tut22_069.md) ++ [全面跟踪分析简介](tut22_070.md) ++ [使用整体追踪分析的追踪差异](tut22_071.md) ++ [代码转换与 FX](tut22_072.md) ++ [(beta)在 FX 中构建一个卷积/批量归一化融合器](tut22_073.md) ++ [(beta)使用 FX 构建一个简单的 CPU 性能分析器](tut22_074.md) ++ [前端 APIs](tut22_075.md) ++ [(beta)PyTorch 中的通道最后内存格式](tut22_076.md) ++ [前向模式自动微分(Beta)](tut22_077.md) ++ [雅可比矩阵、海森矩阵、hvp、vhp 等:组合函数转换](tut22_078.md) ++ [模型集成](tut22_079.md) ++ [每个样本的梯度](tut22_080.md) ++ [使用 PyTorch C++ 前端](tut22_081.md) ++ [TorchScript 中的动态并行性](tut22_082.md) ++ [C++前端的 Autograd](tut22_083.md) ++ [扩展 PyTorch](tut22_084.md) ++ [使用自定义函数进行双向传播](tut22_085.md) ++ [使用自定义函数融合卷积和批量归一化](tut22_086.md) ++ [自定义 C++和 CUDA 扩展](tut22_087.md) ++ [使用自定义 C++运算符扩展 TorchScript](tut22_088.md) ++ [使用自定义 C++类扩展 TorchScript](tut22_089.md) ++ [在 C++中注册一个分发的运算符](tut22_090.md) ++ [在 C++中为新后端扩展调度程序](tut22_091.md) ++ [通过 PrivateUse1 促进新后端集成](tut22_092.md) ++ [模型优化](tut22_093.md) ++ [使用 TensorBoard 的 PyTorch 分析器](tut22_094.md) ++ [使用 Ray Tune 进行超参数调整](tut22_095.md) ++ [参数化教程](tut22_096.md) ++ [修剪教程](tut22_097.md) ++ [(beta)LSTM 单词语言模型上的动态量化](tut22_098.md) ++ [(beta)BERT 上的动态量化](tut22_099.md) ++ [(beta)计算机视觉的量化迁移学习教程](tut22_100.md) ++ [(beta)在 PyTorch 中使用急切模式的静态量化](tut22_101.md) ++ [从第一原则理解 PyTorch Intel CPU 性能](tut22_102.md) ++ [从第一原则开始理解 PyTorch 英特尔 CPU 性能(第 2 部分)](tut22_103.md) ++ [开始 - 用 nvFuser 加速您的脚本](tut22_104.md) ++ [使用 Ax 进行多目标 NAS](tut22_105.md) ++ [介绍 torch.compile](tut22_106.md) ++ [电感器 CPU 后端调试和性能分析](tut22_107.md) ++ [(Beta)使用缩放点积注意力(SDPA)实现高性能 Transformer](tut22_108.md) ++ [知识蒸馏教程](tut22_109.md) ++ [并行和分布式训练](tut22_110.md) ++ [分布式和并行训练教程](tut22_111.md) ++ [PyTorch 分布式概述](tut22_112.md) ++ [PyTorch 中的分布式数据并行 - 视频教程](tut22_113.md) ++ [单机模型并行最佳实践](tut22_114.md) ++ [开始使用分布式数据并行](tut22_115.md) ++ [使用 PyTorch 编写分布式应用程序](tut22_116.md) ++ [开始使用完全分片数据并行(FSDP)](tut22_117.md) ++ [使用完全分片数据并行(FSDP)进行高级模型训练。](tut22_118.md) ++ [使用 Cpp 扩展自定义流程组后端](tut22_119.md) ++ [使用分布式 RPC 框架入门](tut22_120.md) ++ [使用分布式 RPC 框架实现参数服务器](tut22_121.md) ++ [使用 RPC 进行分布式管道并行](tut22_122.md) ++ [使用异步执行实现批量 RPC 处理](tut22_123.md) ++ [将分布式 DataParallel 与分布式 RPC 框架结合起来](tut22_124.md) ++ [使用管道并行性训练 Transformer 模型](tut22_125.md) ++ [使用 Distributed Data Parallel 和 Pipeline Parallelism 训练 Transformer 模型](tut22_126.md) ++ [使用 Join 上下文管理器进行不均匀输入的分布式训练](tut22_127.md) ++ [移动设备](tut22_128.md) ++ [在 iOS 上进行图像分割 DeepLabV3](tut22_129.md) ++ [在 Android 上进行图像分割 DeepLabV3](tut22_130.md) ++ [推荐系统](tut22_131.md) ++ [TorchRec 简介](tut22_132.md) ++ [探索 TorchRec 分片](tut22_133.md) ++ [多模态](tut22_134.md) ++ [TorchMultimodal 教程:微调 FLAVA](tut22_135.md) \ No newline at end of file -- GitLab