更新时间:2024-06-07 10:55
更新时间:2024-06-07 10:55
请教catboost的详细使用方法,对于原先使用xgboost或者stockranker的策略,如何用catboost替换掉xgboost或者stockranker?
https://www.bilibili.com/video/BV1US4y1n79r/?spm_id_from=333.999.0.0
[https://bigquant.com/experimentshare/c2422c6678a8
更新时间:2024-06-07 10:55
如何实现XGBOOST的pairwise目标函数及metric
https://www.bilibili.com/video/BV1TY4y1q7C8/
[https://bigquant.com/experimentshare/85eb463354e54a9695eddc0c570040e6](https://bi
更新时间:2024-06-07 10:55
XGBoost(eXtreme Gradient Boosting)是一个高效的机器学习库,也是一种基于梯度提升决策树(Gradient Boosting Decision Tree)的集成学习算法,专为提升树算法的性能和速度而设计。它实现了梯度提升框架,并支持回归、分类及排序的问题。XGBoost通过优化计算资源使用和提供高度可配置的参数,成为数据科学竞赛和实际应用中的热门选择。
XG
更新时间:2024-05-20 03:07
本文为旧版实现,供学习参考。
上篇报告介绍了集成学习里Bagging方法的代表算法随机森林,本文将着眼于另一种集成学习方法:Boosting,并深入介绍Boosting里的“王牌” XGBoost 模型。最后,以一个实例介绍XGBoost模型在智能选股方面的应用。
作为集成学习的两大分支,Boosting和Bagging都秉持着“三个臭皮匠顶个诸葛亮”的想法,致力于将
更新时间:2024-05-20 02:09
价值策略通俗地讲就是买入便宜股票,卖出昂贵股票,思想非常简单和直观。但是实际操作上这非常困难,因为我们没办法直接观察股票的真实价值。投资者可以从不同的视角采用不同的指标来估计股票内在价值。在股票市场中,最传统的方法就是通过会计报表的各个条目得到企业估值,我们可以从资产负债表得到市净率,从利润表得到资产收益率,从现金流量表得到现金流比率。Ma和Smith(2014)在《Sorting through the trash》中提到通过市净率、预测下期资产收益率和股价/现金流这三个指标合成一个综合的“价值”因子,可以显著提升策略表现(MA采取了三个因子Z得
更新时间:2024-05-20 02:09
策略源码:
{{membership}}
已经更新到了AIStudio3.0.0版本, 请转移至
https://bigquant.com/wiki/doc/xgboost-I1ZKSVykGR
https://bigquant.com/codeshare/a290e569-7680-45d7-86be-f6c81c18a1e6
\
更新时间:2024-05-16 09:16
本文内容对应旧版平台与旧版资源,其内容不再适合最新版平台,请查看新版平台的使用说明
新版量化开发IDE(AIStudio):
https://bigquant.com/wiki/doc/aistudio-aiide-NzAjgKapzW
新版模版策略:
https://bigquant.com/wiki/doc/demos-ecdRvuM1TU
新版数据平台
更新时间:2024-05-16 05:58
本文内容对应旧版平台与旧版资源,其内容不再适合最新版平台,请查看新版平台的使用说明
新版量化开发IDE(AIStudio):
https://bigquant.com/wiki/doc/aistudio-aiide-NzAjgKapzW
新版模版策略:
https://bigquant.com/wiki/doc/demos-ecdRvuM1TU
新版数据平
更新时间:2024-05-16 03:31
本文内容对应旧版平台与旧版资源,其内容不再适合最新版平台,请查看新版平台的使用说明
新版量化开发IDE(AIStudio):
https://bigquant.com/wiki/doc/aistudio-aiide-NzAjgKapzW
新版模版策略:
https://bigquant.com/wiki/doc/demos-ecdRvuM1TU
新版数据平
更新时间:2024-05-16 01:59
\
更新时间:2024-05-15 02:10
更新时间:2024-05-15 02:10
老师您好,
我学习上面的视频文章,想试运行代码,但运行不下去,没办法回测,是我哪里没有配置对吗?谢谢老师!
\
# 我们取前0.6的数据量作为训练集
date = data['date'].unique
更新时间:2023-12-08 08:18
DeepAlpha系列报告旨在从基础量价数据中,借鉴深度学习模型,应用于量化投资领域。学习模型包括:全连接深度网络(DNN)、卷积神经网络(CNN)、长短期记忆网络(LSTM)、对抗生成网络(GAN)、ResNet、TabNet,同时报告将引入自然语义识别NLP领域近年热门算法如BERT、Transformer、GPT、XLNet等,尝试构建各类DeepAlpha模型。
本篇文章通过借鉴传统机器学习算法——XGBoost——对相同的量价因子进行实验,方便与深度学习模型进行对比实践。
XGBoost 是在 Gradient Boosting(梯度提升)框架
更新时间:2023-12-07 06:50
自己通过import xgboost可以实现自定义目标函数,但是和平台的xgboost模块相比,自己的import xgboost比平台的xgboost模块慢了很多,时间花费几乎是30倍差距。
那么,如何基于平台的xgboost,实现自定义目标函数的定义呢?
\
更新时间:2023-10-09 07:41
在aistudio种,用平台的提供xgboost方法回测,参数改了无数次,回测结果的走势图一模一样,没有变化,xgboost的缓存参数也是关闭的,m_cached=False。
![虽然改变了不同的xgboost参数,但是回测结果一直是如图所示,一个小数点都不变{w:100}](/wiki/api/attachments.redirect?id=1295616f-94b0-4
更新时间:2023-10-09 07:32
更新时间:2023-10-09 07:03
本次我测试了三个gbdt开源框架xgboost, lightgbm, catboost 参数保持一致,分别用框架中的回归器对5日收益进行回归,对14-19年进行滚动训练,用两年的数据预测一年,回测的时候买预测值靠前的4个票持有5天,因子和其他参数都用AI可视化默认模版,去除ST股票。
![{w:100}](/wiki/api/attachments.redirect?id=1c39b870-470a-4001-90b7-
更新时间:2023-10-09 06:39
根据如何实现XGBOOST的pairwise目标函数及metricd策略原码,https://bigquant.com/wiki/doc/mubiao-hanshu-metric-ANiNxUfmFa
,报错如何解决:
BQInputRejected Traceback (most recent call last) BQInputRejected: 编译错误,34: 抱歉,平台暂时不支持此模块:typing.Tuple
[https://bigquant.com/experimentshare/04cf24c01e17
更新时间:2023-10-09 06:21
stock_ranker 模型会报错, xgboost不会
更新时间:2023-10-09 02:26
运行资源充足,但总是自动重启,100%复现
https://bigquant.com/experimentshare/721a8a757c1941e3b06b628c35279ce3
可能是训练集数据存在异常值导致的,对数据进行预处理,可以参考以下策略
\
[https://bigquant.com/experimentshare/596e737dfe9b423095685612871eed
更新时间:2023-06-01 02:13
xgboost的模型如何保存和读取?
m5 = M.xgboost.v1(
training_ds=mSR3data,
features=mSR5.data,
predict_ds=mSR4data,
num_boost_round=NUMROUND,
objective='排序(pairwise)',#其他如map,ndcg
booster='gbtree',
max_depth=MAXDEPTH,
key_cols='date,instrument',
group_col='date',
other_train_paramet
更新时间:2023-06-01 02:13
所有条件不变的情况下,回测买入股票有问题,回测到1月20日,输出日志内1月21日买入的股票跟回测到21日,回测中实际买入的股票不符,什么原因?
更新时间:2023-06-01 02:13
也没有模型训练过程,直接就1分钟不到就直接输出 预测结果了
\
①数据量太少
②xgboost建议使用这个模块:
随机森林建议使用这个模块:
更新时间:2022-12-20 14:20