研报&论文

华泰人工智能系列之二十七:揭开机器学习模型的“黑箱”-华泰证券-20200206

由alkaid创建,最终由alkaid 被浏览 114 用户

摘要

本文介绍机器学习解释方法原理,以XGBoost选股模型为例揭开黑箱

本文介绍六种机器学习模型解释方法的原理,并以华泰XGBoost选股模型为例,尝试揭开机器学习模型的“黑箱”。机器学习多属于黑箱模型,而资管行业的伦理需要可解释的白箱模型。除传统的特征重要性外,ICE、PDP、SDT、LIME、SHAP都是解释模型的有力工具。揭开选股模型黑箱,我们发现:1)价量类因子的重要性整体高于基本面类因子;2)XGBoost模型以非线性的逻辑使用因子,因子的非线性特点在市值、反转、技术、情绪因子上体现尤为明显。

目前人工智能算法的本质仍是样本拟合,直接使用模型结论可能有风险

目前的人工智能算法,即使是近年来发展迅猛的深度神经网络,和线性回归并无本质上的不同,仍是对样本特征X和标签Y进行拟合,区别无非是机器学习模型的非线性拟合能力更强。人工智能并不具备真正的“智能”。模型只能学习特征和标签的相关关系,但无法挖掘其中的因果关系。如果不将机器学习模型的黑箱打开,不弄清机器学习模型的“思考”过程,直接使用机器学习的判断结果,可能带来较大的风险。

近年来研究者提出诸多机器学习模型解释方法,核心思想各有不同

近年来研究者提出诸多机器学习模型解释方法,除了传统的特征重要性外,ICE、PDP、SDT、LIME、SHAP都是揭开机器学习模型黑箱的有力工具。特征重要性计算依据某个特征进行决策树分裂时,分裂前后的信息增益。ICE和PDP考察某项特征的不同取值对模型输出值的影响。SDT用单棵决策树解释其它更复杂的机器学习模型。LIME的核心思想是对于每条样本,寻找一个更容易解释的代理模型解释原模型。SHAP的概念源于博弈论,核心思想是计算特征对模型输出的边际贡献。

应用多种机器学习模型解释方法,揭开XGBoost选股模型的“黑箱”

我们应用多种机器学习模型解释方法,对以2013~2018年为训练和验证集、2019年整年为测试集的模型进行分析,尝试揭开XGBoost选股模型的“黑箱”。特征重要性和SDT的结果表明,价量类因子的重要性整体高于基本面类因子。ICE和LIME能够展示模型对个股做出预测的依据。PDP和SHAP的结果表明:1)XGBoost模型以非线性的逻辑使用因子,因子的非线性特点在市值、反转、技术、情绪因子上体现尤为明显;2)部分因子之间存在较强的交互作用;3)部分因子边际贡献为0,未来可以考虑事先剔除。

正文

/wiki/static/upload/33/3346cffa-3296-467a-9720-3a9b83d4d6e3.pdf

\

{link}