更新时间:2021-08-24 10:47:18
封面
版权信息
插图
前言
作者简介
审校者简介
第1章 基于TensorFlow 2.0的神经网络基础
1.1 TensorFlow是什么
1.2 Keras是什么
1.3 TensorFlow 2.0有哪些重要的改动
1.4 神经网络概述
1.5 感知器
1.6 多层感知器——第一个神经网络示例
1.7 示例——识别手写数字
1.8 正则化
1.9 Google Colab——CPU、GPU和TPU
1.10 情感分析
1.11 超参数调谐和AutoML
1.12 预测输出
1.13 反向传播的实用概述
1.14 我们学到了什么
1.15 迈向深度学习方式
1.16 参考文献
第2章 TensorFlow 1.x与2.x
2.1 理解TensorFlow 1.x
2.2 理解TensorFlow 2.x
2.3 TensorFlow 2.x生态系统
2.4 Keras还是tf.keras
2.5 小结
第3章 回归
3.1 什么是回归
3.2 使用线性回归进行预测
3.3 TensorFlow Estimator
3.4 使用线性回归预测房价
3.5 分类任务和决策边界
3.6 小结
3.7 参考文献
第4章 卷积神经网络
4.1 深度卷积神经网络
4.2 DCNN的示例——LeNet
4.3 通过深度学习识别CIFAR-10图像
4.4 用于大规模图像识别的超深度卷积网络
4.5 小结
4.6 参考文献
第5章 高级卷积神经网络
5.1 计算机视觉
5.2 视频
5.3 文本文件
5.4 音频和音乐
5.5 卷积运算小结
5.6 胶囊网络
5.7 小结
5.8 参考文献
第6章 生成对抗网络
6.1 什么是GAN
6.2 深度卷积GAN
6.3 一些有趣的GAN架构
6.4 GAN的出色应用
6.5 TensorFlow 2.0中的CycleGAN
6.6 小结
6.7 参考文献
第7章 词嵌入
7.1 词嵌入的起源和基本原理
7.2 分布式表示
7.3 静态嵌入
7.4 使用gensim创建自己的嵌入
7.5 使用gensim探索嵌入空间
7.6 使用词嵌入检测垃圾短信
7.7 神经嵌入——不只是单词
7.8 字符和子词嵌入
7.9 动态嵌入
7.10 句子和段落嵌入
7.11 基于语言模型的嵌入
7.12 小结
7.13 参考文献
第8章 循环神经网络
8.1 基本的RNN单元
8.2 RNN单元变体
8.3 RNN变体
8.4 RNN拓扑结构
8.5 编码器-解码器架构——seq2seq
8.6 注意力机制
8.7 Transformer架构
8.8 小结
8.9 参考文献
第9章 自编码器
9.1 自编码器简介
9.2 香草自编码器
9.3 稀疏自编码器
9.4 降噪自编码器
9.5 堆栈自编码器
9.6 小结
9.7 参考文献
第10章 无监督学习
10.1 主成分分析
10.2 自组织图
10.3 受限玻尔兹曼机
10.4 变分自编码器
10.5 小结
10.6 参考文献