目录




第1章作为机器学习模型的神经网络

1.1表示学习

1.2感知器与神经网络

1.3使用keras


第2章神经网络的训练

2.1基于梯度的一阶优化

2.2基于梯度的二阶优化

2.3普通训练方法的局限

2.4误差反向传播算法的本质

2.5使用keras


第3章神经网络的优化难题

3.1局部极小值,鞍点和非凸优化

3.2随机梯度下降的优势

3.3梯度方向优化

3.4动态调整学习率

3.5使用keras


第4章神经网络的过拟合

4.1参数绑定和提前终止

4.2数据增强和噪声添加

4.3Dropout

4.4使用keras



第5章神经网络的神经单元

5.1梯度消失和梯度爆炸

5.2隐藏单元设计原则和sigmoid的非零中心

5.3基于线性函数的改进和maxout单元

5.4使用keras


第6章神经网络的深度训练

6.1预处理和批标准化

6.2批标准化的不同视角: 协变量偏差和协调更新

6.3自归一化神经网络

6.4ResNet

6.5使用keras


第7章卷积神经网络

7.1局部连接和权重共享

7.2卷积操作的重要概念

7.3卷积核的参数学习

7.4基于感受野的三个卷积技巧

7.5使用keras






第8章循环神经网络

8.1理解循环结构

8.2循环结构的参数学习

8.3正交初始化和记忆容量

8.4理解LSTM

8.5使用keras


第9章无监督表示学习: 自编码器

9.1自编码器

9.2稀疏自编码器

9.3收缩自编码器

9.4使用keras


第10章概率生成模型

10.1变分自编码器

10.2生成对抗网络

10.3使用keras


参考文献