监督学习模型是一个函数
第3至9章对这些想法进行了扩展。首先,我们来解决模型本身的问题;一维线性回归有一个明显的缺点,即它只能将输入和输出之间的关系描述为一条直线。浅层神经网络(第3章)只比线性回归稍微复杂一些,但可以描述更大范围的输入/输出关系。深度神经网络(第4章)同样具有表现力,但可以用更少的参数描述复杂函数,并且在实践中效果更好。
第5章研究不同任务的损失函数,并揭示了最小二乘损失的理论基础。第6章和第7章讨论了训练过程。第8章讨论了如何衡量模型性能。第9章考虑了正则化技术,旨在提高性能。
笔记
损失函数(Loss functions)与代价函数(Cost functions):在机器学习的许多领域以及本书中,损失函数和代价函数这两个术语可以互换使用。然而,更准确地说,损失函数是与数据点相关的单个项(即公式2.5右侧的每个平方项),而代价函数是要最小化的整体量(即公式2.5的整个右侧)。代价函数可以包含与单个数据点无关的其他项(见9.1节)。更一般地说,目标函数是任何要最大化或最小化的函数。
生成模型与判别模型: 本章中的模型
生成方法有一个缺点,那就是它不直接预测
问题
问题 2.1 为了在损失函数(方程 2.5)上“下山”,我们测量其关于参数
问题 2.2 展示我们可以通过将问题 2.1 中导数的表达式设为零并求解
问题 2.3 考虑将线性回归重新表述为一个生成模型,这样我们有