AI量化知识树

基于随机森林模型的智能选股策略

由clearyf创建,最终由bqah4jb9 被浏览 837 用户

导语

机器学习已经成为量化策略设计中的一大利器,了解各种机器学习算法的原理、特点、优劣,对于量化建模有着极大的帮助。因此,本系列【专题研究】介绍几种在资本市场中非常流行的机器学习算法及其在选股方面的相应应用,希望能对大家有所帮助。


随机森林是当前使用最广泛的机器学习集成算法之一。由于其简单灵活、不容易过拟合、准确率高的特性,随机森林在很多应用中都体现了较好的效果。

本文从单棵决策树讲起,逐步解释了随机森林的工作原理,然后将随机森林预测应用于二级市场,介绍了基于随机森林模型的智能选股策略。

什么是随机森林

随机森林是一种集成算法(Ensemble Learning),它属于Bagging类型,通过组合多个弱学习器(决策树),对弱学习器的结果投票或取均值得到整体模型的最终结果,使得整体模型的结果具有较高的精确度和泛化性能。其之可以取得不错成绩,主要归功于“随机”和“森林”,一个使它具有抗过拟合能力,一个使它更加精准

图1:随机森林(分类)模型示意图{w:100}决策树

随机森林是多个决策树的集成。所以理解随机森林,首先要从理解决策树开始。

日常生活中,我们对于事物的认知都是基于特征的判断与分类,譬如通过胎生与否可判断哺乳动物,根据肚脐尖圆来挑选螃蟹公母。决策树就是采用这样的思想,基于多个特征进行分类决策。在树的每个结点处,根据特征的表现通过某种规则分裂出下一层的叶子节点,终端的叶子节点即为最终的分类结果。决策树学习的关键是选择最优划分属性。随着逐层划分,决策树分支结点所包含的样本类别会逐渐趋于一致,从而得到最终分类。

目前主流的决策树算法包括C4.5 和CART:C4.5 每个节点可分裂成多个子节点,不支持特征的组合,只能用于分类问题;CART 每个节点只分裂成两个子节点,支持特征的组合,可用于分类和回归问题。而在随机森林中,通常采用CART 算法来选择划分属性,所以以下主要介绍CART决策树。

决策树如何分裂

答案是:基尼不纯度(Gini Impurity)的最大减少。 那么问题来了,什么是基尼不纯度?

节点的基尼不纯度是指,根据节点中样本的分布对样本分类时,从节点中随机选择的样本被分错的概率。因此,基尼不纯度越小,样本的纯度越高。

假设有K 个类,样本集D中的点属于第k 类的概率为𝑃𝑘,其基尼不纯度为: {w:100}根据特征A 分裂为𝐷1和𝐷2两不相交部分,则分裂后的

{w:100} 以Gini(𝐷, A)最小的特征A 为划分属性,将训练集依特征分配到两个子结点中去。

说白了,决策树的分裂标准是:怎么分能让分类完的结果更“纯粹”,就怎么分。

何时停止生长

从根节点开始,递归地在每个结点分裂时选取Gini(𝐷, A)最小的特征A 为划分属性,将训练集依特征分配到两个子结点中去。照此逐层划分,直至结点中样本个数小于预定阈值,或样本集的Gini 指数小于预定阈值,或者没有更多特征,即停止生长,形成了一棵可进行分类预测的决策树。

决策树的效果

很容易理解,如果决策树一直分裂,终有一日可以将所有的训练样本精确分类,但是这也会造成过拟合 图2:单颗决策树的过拟合现象{w:100} 为了解决决策树的致命问题“过拟合”,随机森林闪亮登场。

随机:Bagging

Bagging 是一种并行的集成学习的方法。基于“自助采样法”(bootstrap sampling),主要关注降低方差,因此它在容易受到样本扰动的学习器(如不剪枝的决策树)中效果明显。

Bootstrap 就是从训练集里面有放回地采集固定个数的样本,形成对于每一个弱学习器的样本集。也就是说,被采集过的样本在放回后有可能不止一次被采集到。

Bagging 算法中,对有m 个样本训练集做T 次的随机采样,则由于随机性,一般来说T 个采样集各不相同。正是由于Bagging 每次利用不同采样集来训练模型,故其泛化能力较强,有助于降低模型的方差。但是不可避免地其对训练集的拟合程度就会差一些,即增大了模型的偏倚。这时,为了避免可能的过大的偏倚,我们需要将树组合成森林。 图3:Bagging示意图{w:100}

森林:更精确

俗话说“三个臭皮匠顶个诸葛亮”,随机森林就是典型的“三个臭皮匠”。

每个树的预测结果可能都不尽如人意,但是如果有多个树,让这些树投票选出最有可能的分类结果或者对于所有树的结果取均值得到回归结果,那么森林的预测就会更准确。 图4:组成森林{w:100}

随机森林的关键参数

  • n_estimators (int) – 树的个数,个数越多,则模型越复杂,计算速度越慢。
  • max_features (str) – 最多考虑特征个数,新建节点时,最多考虑的特征个数。
  • max_depth (int) – 每棵树的最大深度,数值大拟合能力强,数值小泛化能力强。
  • min_samples_leaf (int) – 每个叶子节点最少样本数,数值大泛化能力强,数值小拟合能力强。
  • n_jobs (int) – 并行度,同时使用多少个进程进行计算,最多是4。

模型评价

特征重要性

随机森林模型可以在预测的同时通过特征划分过程来计算评估各个因子特征的重要性。特征影响力的计算需要借助于结点分裂时Gini 指数,方法如下: {w:100}其中,𝐼𝑖 (𝐴)表示结点i 根据特征A 分裂为两个子结点后,Gini 指数相对于母结点分裂前的下降值。故而可定义特征A 的绝对重要性𝑆(𝐴)为所有按特征A 分裂的结点处的𝐼𝑖 (𝐴)之和。将所有特征的绝对重要性归一化,即可得到各个特征的重要性评分

模型评价

回归模型

  • 可解释方差 EVS:可以被解释的方差,越接近1越好
  • 平均绝对误差 MAE:预测值和真实值的差值。数值越小越好
  • 均方误差 MSE:预测值和实际值的平方误差。数值越小越好
  • 均方对数误差 lnMSE:取对数后预测值和实际值的平方误差。当目标具有指数增长的目标时,最适合使用这一指标
  • 中位数绝对误差 median absolute error:取目标和预测之间的所有绝对差值的中值来计算损失
  • 确定系数(r^2) r2:预测模型和真实数据的拟合程度,最佳值为1,同时可为负值

分类模型

  • 准确率 accuracy:预测正确的的数据占所有数据的比例
  • 精确率 precision:预测正确的正例数据占预测为正例数据的比例
  • 召回率 recall:预测为正例的数据占实际为正例数据的比例
  • F1分 f1 score:综合指标。F值 = 正确率 * 召回率 * 2 / (正确率 + 召回率)

随机森林智能选股


图5:随机森林智能选股策略{w:100}

策略步骤

如图5所示,随机森林的策略构建包含下列步骤:

  • 获取数据:A股所有股票。
  • 特征和标签提取:计算18个因子作为样本特征;计算未来5日的个股收益作为样本的标签。
  • 特征预处理:进行缺失值处理。
  • 模型训练与预测:使用随机森林模型进行训练和预测。
  • 策略回测:利用2010到2017年数据进行训练,预测2017到2019年的股票表现。每日买入预测排名最靠前的5只股票,至少持有五日,同时淘汰排名靠后的股票。具体而言,预测排名越靠前,分配到的资金越多且最大资金占用比例不超过20%;初始5日平均分配资金,之后,尽量使用剩余资金(这里设置最多用等量的1.5倍)。
  • 模型评价:查看特征重要性和模型回归结果。

回测结果&特征重要性

回测结果如下: 图6:策略回测结果{w:100} 从回测结果可以看出,由于市场本身问题,随机森林策略在2017-2018年的表现并不很好,但是当市场风格趋于一致时,随机森林策略表现出了不错的选股效果。

随机森林模型可以按照重要性输出特征,有助于我们分析哪些因素对于预测的帮助更大,从而优化模型。使用特征重要性如下: 图7:特征重要性结果节选{w:100}

随机森林模型评价


下面进行模型评价。训练集和预测集上的情况分别如下: 图8:训练集评估{w:100} 图9:预测集评估{w:100}可以看到,模型的整体误差和拟合程度还有进一步优化的空间,此策略仅抛砖引玉,欢迎继续探索。

策略原代码如下:

https://bigquant.com/experimentshare/3c61a79d5da642208046e4ea532b62b0

参考文献

\

标签

机器学习量化策略算法选股randomforest
评论
  • 策略源码克隆不了?
  • 策略源码克隆不了?
{link}