目录 第1章作为机器学习模型的神经网络 1.1表示学习 1.2感知器与神经网络 1.3使用keras 第2章神经网络的训练 2.1基于梯度的一阶优化 2.2基于梯度的二阶优化 2.3普通训练方法的局限 2.4误差反向传播算法的本质 2.5使用keras 第3章神经网络的优化难题 3.1局部极小值,鞍点和非凸优化 3.2随机梯度下降的优势 3.3梯度方向优化 3.4动态调整学习率 3.5使用keras 第4章神经网络的过拟合 4.1参数绑定和提前终止 4.2数据增强和噪声添加 4.3Dropout 4.4使用keras 第5章神经网络的神经单元 5.1梯度消失和梯度爆炸 5.2隐藏单元设计原则和sigmoid的非零中心 5.3基于线性函数的改进和maxout单元 5.4使用keras 第6章神经网络的深度训练 6.1预处理和批标准化 6.2批标准化的不同视角: 协变量偏差和协调更新 6.3自归一化神经网络 6.4ResNet 6.5使用keras 第7章卷积神经网络 7.1局部连接和权重共享 7.2卷积操作的重要概念 7.3卷积核的参数学习 7.4基于感受野的三个卷积技巧 7.5使用keras 第8章循环神经网络 8.1理解循环结构 8.2循环结构的参数学习 8.3正交初始化和记忆容量 8.4理解LSTM 8.5使用keras 第9章无监督表示学习: 自编码器 9.1自编码器 9.2稀疏自编码器 9.3收缩自编码器 9.4使用keras 第10章概率生成模型 10.1变分自编码器 10.2生成对抗网络 10.3使用keras 参考文献