\
更新时间:2021-11-30 03:40
更新时间:2021-11-19 10:42
作者:James Le 编译:caoxiyang
在机器学习中,有一个叫做“世上没有免费午餐”的定理(NFL)。简而言之,我们无法找到一个放之四海而皆准的最优方案,这一点对于监督学习(即预测建模)尤为重要。例如,你不能说神经网络总是比决策树好,反之亦然。因为其中有很多因素在起作用,比如数据集的大小和结构。
因此,您应该针对您的问题尝试多种不同的算法,同时,保留一组数据,即“测试集”来评估性能并选
更新时间:2021-08-24 05:46
机器学习里面究竟有多少经典的算法呢?本文简要介绍一下机器学习中的常用算法。这部分介绍的重点是这些方法内涵的思想,数学与实践细节不会在这讨论。
在大部分机器学习课程中,回归算法都是介绍的第一个算法。原因有两个:一.回归算法比较简单,介绍它可以让人平滑地从统计学迁移到机器学习中。二.回归算法是后面若干强大算法的基石,如果不理解回归算法,无法学习那些强大的算法。回归算法有两个重要的子类:即 线性回归 和 逻辑回归 。
线性回归就是我们前面说过的房价求解问题。如何拟合出一条直线最佳匹配我所有的数据?一般使用“最小二乘法”来求解。“最小二乘法”的思想是
更新时间:2021-08-18 06:37
特征选择是除数据之外最关键的步骤。尽管这一步非常必要,但很多指导文章中却完全忽略这一过程。
本文将展示一些很棒的特征选择方法,帮助读者在机器学习中更加如鱼得水。
特征选择是什么?实际问题中,需要什么样的特征来帮助解决建模并不总是很清晰。在这个问题上,数据总是存在各种问题,比如数据过多,不相关等。特征选择主要研究如何使用算法选择出重要特征。
那为什么不将所有的特征都扔进机器学习模型,然后收工回家呢?
在实际问题中可能没有开源数据集,或者这些数据不总是含有解决问题的相关信息。在这些现实问题面前,特征选择能够最大化数据相关性,降低数据冗余度。这有助于建立好的模型,减小模型大小。
更新时间:2021-07-30 07:26
更新时间:2021-07-30 06:27