注册 登录 进入教材巡展
#

出版时间:2024-06

出版社:电子工业出版社

以下为《深度学习与TensorFlow实践》的配套数字资源,这些资源在您购买图书后将免费附送给您:
  • 电子工业出版社
  • 9787121401992
  • 1-5
  • 403064
  • 48253370-0
  • 平塑
  • 16开
  • 2024-06
  • 410
  • 312
  • 工学
  • 计算机科学与技术
  • 计算机科学与技术
  • 本科 研究生及以上
目录
目 录__eol__第1章 深度学习导论 1__eol__1.1 从人工智能到深度学习 2__eol__1.1.1 从感知机到深度学习 2__eol__1.1.2 深度学习的巨大影响 6__eol__1.2 从学习到机器学习 7__eol__1.2.1 什么是学习 7__eol__1.2.2 什么是机器学习 8__eol__1.2.3 机器学习的4个象限 9__eol__1.3 深度学习的内涵 10__eol__1.3.1 什么是深度学习 10__eol__1.3.2 生活中的深度学习 12__eol__1.3.3 有没有浅度学习 13__eol__1.4 本章小结 14__eol__1.5 思考与习题 14__eol__参考资料 14__eol__第2章 神经网络学习 16__eol__2.1 人工神经网络的定义 17__eol__2.2 神经网络的原子单元——感知机 18__eol__2.2.1 感知机的形式化描述 18__eol__2.2.2 感知机名称的由来 19__eol__2.2.3 感性认识感知机 20__eol__2.2.4 感知机是如何学习的 22__eol__2.2.5 感知机训练法则 24__eol__2.2.6 感知机中的激活函数 26__eol__2.2.7 感知机的几何意义 26__eol__2.2.8 实战:基于Python的感知机实现 27__eol__2.2.9 感知机的表征能力 31__eol__2.3 多层前馈网络 32__eol__2.3.1 多层网络解决“异或”问题 32__eol__2.3.2 多层前馈神经网络 34__eol__2.3.3 机器学习本质与通用近似定理 35__eol__2.3.4 神经网络结构的设计 37__eol__2.4 神经网络中的损失函数 38__eol__2.5 常用的激活函数 40__eol__2.5.1 Sigmoid函数 40__eol__2.5.2 Tanh函数 41__eol__2.5.3 ReLU函数 42__eol__2.6 实战:利用sklearn搭建多层神经网络 43__eol__2.6.1 sklearn简介 44__eol__2.6.2 sklearn的安装 44__eol__2.6.3 sklearn搭建多层神经网络实现红酒分类 45__eol__2.7 本章小结 57__eol__2.8 思考与习题 58__eol__参考资料 58__eol__第3章 初识TensorFlow 60__eol__3.1 TensorFlow概述 61__eol__3.2 TensorFlow特征 62__eol__3.3 深度学习框架比较 63__eol__3.3.1 Theano 63__eol__3.3.2 Keras 64__eol__3.3.3 Caffe 65__eol__3.3.4 PyTorch 66__eol__3.4 利用Anaconda安装TensorFlow 67__eol__3.4.1 Anaconda的下载与安装 67__eol__3.4.2 验证Python是否安装成功 70__eol__3.4.3 利用conda安装TensorFlow 71__eol__3.5 运行“Hello World!”版的TensorFlow程序 72__eol__3.5.1 利用TensorFlow 2 编写的第二个程序 74__eol__3.5.2 TensorFlow 2 的新特性 75__eol__3.6 本章小结 79__eol__3.7 思考与提高 79__eol__参考资料 79__eol__第4章 TensorFlow 基础语法 80__eol__4.1 TensorFlow的张量思维 81__eol__4.1.1 张量的阶 81__eol__4.1.2 张量的尺寸 83__eol__4.2 TensorFlow中的数据类型 86__eol__4.2.1 Python基本数据类型与TensorFlow的关系 86__eol__4.2.2 数值类型 87__eol__4.2.3 字符串类型 89__eol__4.2.4 布尔类型 91__eol__4.2.5 张量类型转换 92__eol__4.2.6 TensorFlow中的张量与NumPy数组 93__eol__4.3 TensorFlow中的常量与变量 97__eol__4.3.1 constant常量 97__eol__4.3.2 Variable变量 98__eol__4.4 常用张量生成方法 100__eol__4.4.1 生成全0的张量 100__eol__4.4.2 生成全1的张量 102__eol__4.4.3 生成全为给定值的张量 103__eol__4.4.4 生成已知分布的随机数张量 103__eol__4.4.5 创建特定张量序列 104__eol__4.5 张量的索引和切片 105__eol__4.5.1 索引 105__eol__4.5.2 通过切片访问 107__eol__4.6 张量的维度伸缩与交换 111__eol__4.6.1 张量中的轴方向 111__eol__4.6.2 张量维度的增加与删除 111__eol__4.7 张量的合并、分割与复制 112__eol__4.7.1 张量合并 113__eol__4.7.2 张量分割 115__eol__4.8 TensorFlow中的计算 118__eol__4.8.1 按元素计算 118__eol__4.8.2 张量的按轴计算 119__eol__4.9 张量的广播机制 122__eol__4.9.1 广播的定义 122__eol__4.9.2 广播的操作与适用规则 122__eol__4.10 张量在神经网络中的典型应用 124__eol__4.10.1 标量 124__eol__4.10.2 向量 126__eol__4.10.3 矩阵 126__eol__4.10.4 三维张量 129__eol__4.10.5 四维张量 130__eol__4.10.6 五维张量 130__eol__4.11 本章小结 131__eol__4.12 思考与练习 132__eol__参考资料 132__eol__第5章 BP算法与优化方法 133__eol__5.1 为何需要优化函数 134__eol__5.1.1 优化的意义 134__eol__5.1.2 优化函数的流程 134__eol__5.2 基于梯度的优化算法 136__eol__5.2.1 什么是梯度 136__eol__5.2.2 梯度的代码实现 138__eol__5.2.3 梯度递减 142__eol__5.2.4 批量梯度递减法 145__eol__5.2.5 随机梯度递减法 146__eol__5.2.6 小批量梯度递减法 148__eol__5.2.7 实战:基于梯度递减的线性回归算法 148__eol__5.2.8 基于梯度递减优化算法的挑战 151__eol__5.3 BP算法 152__eol__5.3.1 BP算法的发展历程 152__eol__5.3.2 正向传播信息 153__eol__5.3.3 求导中的链式法则 156__eol__5.3.4 误差反向传播 158__eol__5.3.5 实战:利用BP算法解决异或问题 160__eol__5.4 TensorFlow中的其他优化算法 163__eol__5.5 本章小结 166__eol__5.6 思考与习题 166__eol__参考资料 167__eol__第6章 Keras模块的使用 168__eol__6.1 Keras与tf.keras模块 169__eol__6.2 数据的加载 170__eol__6.2.1 TensorFlow的经典数据集 170__eol__6.2.2 Dataset对象 171__eol__6.3 Dataset的变换 173__eol__6.3.1 随机打散 173__eol__6.3.2 设置批大小 174__eol__6.3.3 数据映射 174__eol__6.3.4 循环训练 175__eol__6.4 实战:基于梯度递减的手写数字识别MNIST 176__eol__6.4.1 MNIST数据集简介 176__eol__6.4.2 MNIST数据的获取 178__eol__6.4.3 手写识别任务的分类模型 180__eol__6.4.4 Softmax回归模型 182__eol__6.4.5 手写数字识别MNIST中的Softmax回归模型 184__eol__6.4.6 TensorFlow中搭建模型的三种方式 185__eol__6.4.7 常用的序贯模型 186__eol__6.4.8 利用tf.keras进行模型搭建 188__eol__6.4.9 利用梯度递减算法构建模型 191__eol__6.4.10 损失函数的交叉熵模型 193__eol__6.4.11 tf.keras中的模型编译 196__eol__6.4.12 模型的训练与预测 198__eol__6.4.13 训练模型的保存与读取 201__eol__6.5 本章小结 205__eol__6.6 思考与练习 206__eol__参考资料 206__eol__第7章 卷积神经网络 207