上QQ阅读APP看书,第一时间看更新
1.6 小结
本章我们复习了神经网络的基础。首先回顾了向量和矩阵等数学知识,确认了Python(特别是NumPy)的基本用法。然后,我们观察了神经网络的结构。另外,我们还讨论了几个计算图的基本部件(加法节点、乘法节点等),并介绍了它们的正向传播和反向传播。
接着,我们进行了神经网络的实现。考虑到模块化,我们将神经网络的基本部件实现为了层。在层的实现中,我们制定了本书的代码规范,即具有类方法forward()和backward(),以及实例变量params和grads。这使得神经网络的实现更加清晰。
最后,我们对人造的螺旋状数据集使用具有一个隐藏层的神经网络进行了学习,并确认了模型学习的正确性。到这里为止,神经网络的复习就结束了。现在,让我们手握神经网络这一可靠的武器,迈入自然语言处理的世界。出发吧!
本章所学的内容
·神经网络具有输入层、隐藏层和输出层
·通过全连接层进行线性变换,通过激活函数进行非线性变换
·全连接层和mini-batch处理都可以写成矩阵计算
·使用误差反向传播法可以高效地求解神经网络的损失的梯度
·使用计算图能够将神经网络中发生的处理可视化,这有助于理解正向传播和反向传播
·在神经网络的实现中,通过将组件模块化为层,可以简化实现
·数据的位精度和GPU并行计算对神经网络的高速化非常重要