华西证券-机器学习研究系列之五:机器学习策略的可解释性分析-221220

文本预览:
机器学习类量化策略效果较好但无法直观理解 在前期的报告中,我们构建了利用卷积神经网络进行自动化特征抽取并通过全连接层输出分类结果的非线性择时模型,并在指数择时的场景下取得了良好的结果。但深度模型的预测过程往往被人看作是一个黑箱(Blackbox),本文将通过构建机器学习的可解释性框架从定量的角度解释机器学习策略的内在逻辑。 引入可解释性框架对机器学习策略进行可解释性分析,深入理解策略收益来源 机器学习模型的可解释性一直是学术界研究的重要方向,但模型的效果和可解释性却难以权衡。例如,深度学习模型往往效果最为突出,但无法直观理解。本文介绍了当前已有的解释性框架及原理,并尝试使用SHAP框架对择时策略进行可解释性分析。 SHAP框架适用范围较广,能够解释特征输入如何影响预测值 SHAP框架的核心是计算特征的Shapley值,该值衡量了特征对于预测结果的贡献。通过特征的Shapley值进行分析可以判断在一次或多次预测过程中输入特征的重要程度,从而得到因子对于资产收益率的非线性相关性关系,相比于因子的IC值,因子的Shapley值信息含量更高。 风险提示 模型基于对历史数据统计,仅作为投资参考。
展开>>
收起<<
《华西证券-机器学习研究系列之五:机器学习策略的可解释性分析-221220(20页).pdf》由会员分享,可在线阅读,更多相关《华西证券-机器学习研究系列之五:机器学习策略的可解释性分析-221220(20页).pdf(20页精品完整版)》请在悟空智库报告文库上搜索。
(以下内容从华西证券《机器学习研究系列之五:机器学习策略的可解释性分析》研报附件原文摘录)机器学习类量化策略效果较好但无法直观理解 在前期的报告中,我们构建了利用卷积神经网络进行自动化特征抽取并通过全连接层输出分类结果的非线性择时模型,并在指数择时的场景下取得了良好的结果。但深度模型的预测过程往往被人看作是一个黑箱(Blackbox),本文将通过构建机器学习的可解释性框架从定量的角度解释机器学习策略的内在逻辑。 引入可解释性框架对机器学习策略进行可解释性分析,深入理解策略收益来源 机器学习模型的可解释性一直是学术界研究的重要方向,但模型的效果和可解释性却难以权衡。例如,深度学习模型往往效果最为突出,但无法直观理解。本文介绍了当前已有的解释性框架及原理,并尝试使用SHAP框架对择时策略进行可解释性分析。 SHAP框架适用范围较广,能够解释特征输入如何影响预测值 SHAP框架的核心是计算特征的Shapley值,该值衡量了特征对于预测结果的贡献。通过特征的Shapley值进行分析可以判断在一次或多次预测过程中输入特征的重要程度,从而得到因子对于资产收益率的非线性相关性关系,相比于因子的IC值,因子的Shapley值信息含量更高。 风险提示 模型基于对历史数据统计,仅作为投资参考。