本文内容对应旧版平台与旧版资源,其内容不再适合最新版平台,请查看新版平台的使用说明
新版量化开发IDE(AIStudio):
https://bigquant.com/wiki/doc/aistudio-aiide-NzAjgKapzW
新版模版策略:
https://bigquant.com/wiki/doc/demos-ecdRvuM1TU
新版数据平
更新时间:2024-05-17 06:43
本文目的在于给出自定义损失函数示例代码, 便于读者魔改. 基于BigQuant平台, 探索了使用不同损失函数对DeepAlpha-DNN模型优化的效果. 本文的基准模型为MSE优化的DeepAlpha-DNN模型, 进一步使用MAE、Pseudo-Huber以及负IC损失函数和有序回归损失函数. 最后多加一项使用wmse损失函数优化LSTM模型.
我们使用了基本面条件对A股进行筛选. 采用两到三年数据训练, 后一年数据进行回测. 由于本文的标签是未来五日累计收益率, 故采用5日调仓的方式进行回测.
通过对比常用损失函数在2023年的回测效果得出结论: 使用MAD损失函数综合效果最佳, 2
更新时间:2023-09-06 10:54
\
Google在2017年发布了Transformer,截止2022年5月,《Attention is all you need》论文的引用量已经超过了4万,可以说是近5年最热门的论文。
Transformer最初发布是用于时序任务和NLP任务,在近年来也有不少Transformer在CV应用比较出色的研究,我们有理由相信Transformer也可以应用于量化投资领域。
Transformer的基本思想可以从平台之前发布的文章中看到,本文就不再进行重述。
<https://bigquant.com/wiki/doc/moxing-z
更新时间:2023-03-16 11:59
本集合里将分享平台开发者们对DeepAlpha系列的实践研究报告
\
更新时间:2022-11-08 08:26
作者:woshisilvio
相比同样的决策树模型还有线性分类模型,deepAlpha无疑具有更大的可扩展空间。 一般的机器学习模型 一旦出现训练数据量过大,又或者面对一些极值数据样本和极端数据差异过大的情况,模型容易陷入过拟合的状态。 模型比较依赖训练的因子特征,如果因子选择不好,会导致模型学习效果不佳,而且在后期难以通过参数去调整学习的效果。
StockRanker绩效:98个因子
![{w:100}{w:100}{w:100}{w:100}{w:100}{w:100}{w:100}
更新时间:2022-08-17 00:16