目录 随书资源 第1章边缘计算 1.1云计算与边缘计算 1.2边缘计算的挑战 1.2.1DNN模型设计 1.2.2DNN模型轻量化 1.2.3硬件优化部署 1.3云边端任务协作 1.4本章小结 1.5习题 第2章嵌入式AI系统 2.1嵌入式AI系统的概念 2.2嵌入式AI系统的硬件结构 2.3嵌入式AI系统的软件结构 2.3.1驱动层 2.3.2操作系统层 2.3.3中间件层 2.3.4应用层 2.4嵌入式深度学习技术 2.5嵌入式AI系统的应用 2.5.1车载辅助驾驶系统 2.5.2无人机智能巡检系统 2.5.3VR设备 2.6嵌入式AI系统的需求与挑战 2.7本章小结 2.8习题 深度学习框架及系统部署实战(微课视频版) 目录 第3章嵌入式AI系统的硬件解决方案 3.1通用类芯片——GPU 3.2半定制化芯片——FPGA 3.3全定制化芯片——ASIC 3.4类脑芯片 3.5对四大类型AI芯片的总结与展望 3.5.1对AI芯片的总结 3.5.2对AI芯片的展望 3.6本章小结 3.7习题 第4章深度卷积神经网络(DCNN)模型的构建及实现 4.1神经网络的概念及发展历史 4.1.1神经元的结构 4.1.2感知机 4.1.3BP算法 4.1.4神经网络的发展历史 4.2深度卷积神经网络(DCNN) 4.2.1深度学习的概念 4.2.2DCNN的概念 4.2.3DCNN的构成 4.2.4DCNN的训练 4.3几种常用的DNN模型结构 4.3.1AlexNet 4.3.2VGG 4.3.3GoogLeNet 4.3.4ResNet 4.3.5网络模型对比 4.3.6迁移学习 4.4图像识别项目实战 4.5本章小结 4.6习题 第5章轻量级DCNN模型 5.1MobileNet系列 5.1.1MobileNet V1 5.1.2MobileNet V2 5.1.3MobileNet V3 5.2ShuffleNet系列 5.2.1ShuffleNet V1 5.2.2ShuffleNet V2 5.3轻量级DCNN模型对比 5.4项目实战 5.4.1MobileNet V3模型构建 5.4.2ShuffleNet V2模型构建 5.5本章小结 5.6习题 第6章深度学习模型轻量化方法及实现 6.1网络模型剪枝 6.1.1基本原理 6.1.2网络模型的剪枝分类 6.1.3剪枝标准 6.1.4剪枝流程 6.1.5代码实现 6.2参数量化 6.2.1基本原理 6.2.2参数量化算法的分类 6.2.3参数量化流程 6.2.4代码实现 6.3知识蒸馏法 6.3.1基本原理 6.3.2知识蒸馏算法流程 6.3.3代码实现 6.4本章小结 6.5习题 第7章AI模型的硬件部署 7.1开放神经网络交换(ONNX)格式 7.1.1ONNX模型 7.1.2Torch模型转ONNX模型实例 7.1.3ONNX 工作原理 7.1.4ONNX模型推理 7.1.5推理速度对比 7.2Intel系列芯片部署方法 7.2.1OpenVINO的简介 7.2.2OpenVINO的安装 7.2.3OpenVINO工作流程 7.2.4OpenVINO推理示例 7.3NVIDIA系列芯片部署方法 7.3.1TensorRT的简介 7.3.2TensorRT的安装 7.3.3TensorRT模型转换 7.3.4部署TensorRT模型 7.4本章小结 7.5习题