PyTorch 知识体系
本文档是 PyTorch 使用指南的总览,涵盖了从入门到进阶的完整知识体系。
📚 知识体系结构
一、PyTorch 基础
1.1 张量操作
1.2 自动求导
- 03-自动求导-autograd - 计算图与自动微分机制
1.3 数据处理
- 04-数据加载-Dataset-DataLoader - 数据集定义与数据加载器
二、神经网络基础
2.1 核心组件
- 05-nn.Module - 神经网络模块基类
- 06-Linear - 全连接层(线性层)
2.2 激活函数
- 07-激活函数 - ReLU、Sigmoid、Tanh 等
2.3 损失函数
- 08-损失函数 - 交叉熵、MSE、CTC 等
2.4 优化器
- 09-优化器 - SGD、Adam、AdamW 等
三、经典网络架构
3.1 多层感知机
- 10-多层感知机-MLP - 最基础的神经网络结构
3.2 循环神经网络
- 11-LSTM - 长短时记忆网络
3.3 注意力机制
- 12-Transformer - Transformer 架构详解
四、训练与实践
4.1 训练流程
- 13-模型训练完整流程 - 从数据到模型的完整训练流程
📖 学习顺序
| 序号 | 文件名 | 主题 | 说明 |
|---|---|---|---|
| 00 | README | 知识体系总览 | 整体架构与学习路径 |
| 01 | 向量 | 张量概念 | 多维张量基础理解 |
| 02 | 张量操作 | 张量操作 | 创建、索引、运算 |
| 03 | 自动求导-autograd | 梯度计算 | 计算图与反向传播 |
| 04 | 数据加载-Dataset-DataLoader | 数据处理 | 数据集与数据加载器 |
| 05 | nn.Module | 模型构建 | 神经网络基类 |
| 06 | Linear | 全连接层 | 线性层详解 |
| 07 | 激活函数 | 激活函数 | ReLU、GELU 等 |
| 08 | 损失函数 | 损失函数 | CrossEntropy、MSE |
| 09 | 优化器 | 优化器 | Adam、SGD、学习率调度 |
| 10 | 多层感知机-MLP | MLP | 基础神经网络实战 |
| 11 | LSTM | LSTM | 序列建模 |
| 12 | Transformer | Transformer | 注意力架构 |
| 13 | 模型训练完整流程 | 训练流程 | 端到端实战 |
🎯 学习路径建议
入门路径(第1-2周)
- 01-向量 → 理解数据结构
- 02-张量操作 → 掌握张量操作
- 03-自动求导-autograd → 理解梯度计算
- 04-数据加载-Dataset-DataLoader → 掌握数据处理
- 05-nn.Module → 学会构建模型
进阶路径(第3-4周)
- 06-Linear + 07-激活函数 → 理解网络层
- 08-损失函数 + 09-优化器 → 完成训练流程
- 10-多层感知机-MLP → 动手实现第一个模型
- 13-模型训练完整流程 → 掌握端到端训练
高级路径(第5-8周)
- 11-LSTM → 序列模型
- 12-Transformer → 注意力机制
- 实战项目 → 巩固知识
💡 使用建议
- 结合实践:每个概念都要动手写代码验证
- 循序渐进:按照编号顺序学习,不要跳跃
- 记录问题:遇到问题及时记录并解决
- 项目驱动:通过实际项目巩固知识