更新:请参阅原始仓库以获取完整的PyTorch版本。我们不再维护此仓库。
本项目改编自Aston Zhang、Zachary C. Lipton、Mu Li、Alex J. Smola和所有社区贡献者的原版《Dive Into Deep Learning》书籍。原书的GitHub地址:https://github.com/d2l-ai/d2l-en。我们努力修改了这本书,并将其中的MXnet代码片段转换为PyTorch。
注意:在GitHub中,有些ipynb笔记本可能无法完美渲染。我们建议克隆
仓库或使用nbviewer来查看笔记本。
章节
-
Ch02 安装
-
Ch03 简介
-
Ch04 预备知识: 快速入门
-
Ch05 线性神经网络
- 5.1 线性回归
- 5.2 从零实现线性回归
- 5.3 线性回归的简洁实现
- 5.4 Softmax回归
- 5.5 图像分类数据集 (Fashion-MNIST)
- 5.6 从零实现Softmax回归
- 5.7 Softmax回归的简洁实现
-
Ch06 多层感知器
- 6.1 多层感知器
- 6.2 从零实现多层感知器
- 6.3 多层感知器的简洁实现
- 6.4 模型选择、欠拟合和过拟合
- 6.5 权重衰减
- 6.6 Dropout
- 6.7 前向传播、反向传播和计算图
- 6.8 数值稳定性与初始化
- 6.9 考虑环境
- 6.10 在Kaggle上预测房价
-
Ch07 深度学习计算
-
Ch08 卷积神经网络
-
Ch09 现代卷积网络
- 9.1 深度卷积神经网络 (AlexNet)
- 9.2 使用模块化的网络 (VGG)
- 9.3 网络中的网络 (NiN)
- 9.4 具有并行结构的网络 (GoogLeNet)
- 9.5 批量归一化
- 9.6 残差网络 (ResNet)
- 9.7 密集连接网络 (DenseNet)
-
第十章 循环神经网络
- 10.1 序列模型
- 10.2 语言模型
- 10.3 循环神经网络
- 10.4 文本预处理
- 10.5 从零开始实现循环神经网络
- 10.6 简洁实现循环神经网络
- 10.7 时间反向传播
- 10.8 门控循环单元(GRU)
- 10.9 长短期记忆(LSTM)
- 10.10 深度循环神经网络
- 10.11 双向循环神经网络
- 10.12 机器翻译和数据集
- 10.13 编码器-解码器架构
- 10.14 序列到序列
- 10.15 束搜索
-
第十一章 注意机制
- 11.1 注意机制
- 11.2 带注意机制的序列到序列
- 11.3 Transformer
-
第十二章 优化算法
-
第十四章 计算机视觉
- 14.1 图像增强
- 14.2 微调
- 14.3 目标检测和边界框
- 14.4 锚框
- 14.5 多尺度目标检测
- 14.6 目标检测数据集(皮卡丘)
- 14.7 单次多框检测(SSD)
- 14.8 基于区域的卷积神经网络(R-CNN)
- 14.9 语义分割和数据集
- 14.10 转置卷积
- 14.11 全卷积网络(FCN)
- 14.12 神经风格迁移
- 14.13 在Kaggle上进行图像分类(CIFAR-10)
- 14.14 在Kaggle上进行狗品种识别(ImageNet狗)
贡献
-
请随时开启一个Pull Request,贡献一个PyTorch笔记本用于其他章节。在开始笔记本之前,先开启一个与笔记本名称相同的issue。我们会将那个issue分配给你(如果之前没有人分配)。
-
严格遵循IPython笔记本和子章节的命名约定。
-
另外,如果你认为有任何需要更多或更好解释的部分,请使用issue跟踪器开启一个issue并告知我们。我们会尽快回复。
-
找到需要改进的代码并提交Pull Request。
-
找到我们遗漏的参考文献并提交Pull Request。
-
尽量不要提交巨大的Pull Request,因为这会使它们变得难以理解和整合。最好是提交多个小的Pull Request。
支持
如果你喜欢这个仓库并觉得它有用,请考虑(★)标星,以便它能接触到更广泛的受众。
参考文献
[1] 原版书籍 Dive Into Deep Learning -> Github仓库
引用
如果你在研究中使用了这本书或代码,请使用以下的bibtex项引用原版书籍。
@book{zhang2020dive,
title={Dive into Deep Learning},
author={Aston Zhang and Zachary C. Lipton and Mu Li and Alexander J. Smola},
note={\url{https://d2l.ai}},
year={2020}
}