欢迎访问悟空智库——专业行业公司研究报告文档大数据平台!

华西证券-机器学习研究系列之五:机器学习策略的可解释性分析-221220

上传日期:2022-12-20 19:52:06 / 研报作者:王祥宇杨国平周游 / 分享者:1002694
研报附件
华西证券-机器学习研究系列之五:机器学习策略的可解释性分析-221220.pdf
大小:2.3M
立即下载 在线阅读

华西证券-机器学习研究系列之五:机器学习策略的可解释性分析-221220

华西证券-机器学习研究系列之五:机器学习策略的可解释性分析-221220
文本预览:

《华西证券-机器学习研究系列之五:机器学习策略的可解释性分析-221220(20页).pdf》由会员分享,可在线阅读,更多相关《华西证券-机器学习研究系列之五:机器学习策略的可解释性分析-221220(20页).pdf(20页精品完整版)》请在悟空智库报告文库上搜索。

(以下内容从华西证券《机器学习研究系列之五:机器学习策略的可解释性分析》研报附件原文摘录)
  机器学习类量化策略效果较好但无法直观理解   在前期的报告中,我们构建了利用卷积神经网络进行自动化特征抽取并通过全连接层输出分类结果的非线性择时模型,并在指数择时的场景下取得了良好的结果。但深度模型的预测过程往往被人看作是一个黑箱(Blackbox),本文将通过构建机器学习的可解释性框架从定量的角度解释机器学习策略的内在逻辑。   引入可解释性框架对机器学习策略进行可解释性分析,深入理解策略收益来源   机器学习模型的可解释性一直是学术界研究的重要方向,但模型的效果和可解释性却难以权衡。例如,深度学习模型往往效果最为突出,但无法直观理解。本文介绍了当前已有的解释性框架及原理,并尝试使用SHAP框架对择时策略进行可解释性分析。   SHAP框架适用范围较广,能够解释特征输入如何影响预测值   SHAP框架的核心是计算特征的Shapley值,该值衡量了特征对于预测结果的贡献。通过特征的Shapley值进行分析可以判断在一次或多次预测过程中输入特征的重要程度,从而得到因子对于资产收益率的非线性相关性关系,相比于因子的IC值,因子的Shapley值信息含量更高。   风险提示   模型基于对历史数据统计,仅作为投资参考。
展开>> 收起<<

#免责声明#

本站页面所示及下载的一切研究报告、文档和内容信息皆为本站用户上传分享,仅限用于个人学习、收藏和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。如若内容侵犯了您的权利,请参见底部免责申明联系我们及时删除处理。