1.根据系统的代码提示举个例子今天是2023年1月11日,传给交易策略的数据data_pred为什么是2023年1月10号的数据,因为回测数据中11号的交易显示正好是10的数据,按照这个交易逻辑 那一句显示了是前一天的数据,策略是探讨的是多因子数据与未来五日的交易情况,确实应该第二天的开盘价进行交易。哪位老师能解释一下这段代码那个地方说明了是第二天进行交易,求解,困扰了很久了。
2.第二个问题,current_day_data
更新时间:2024-06-19 02:04
Update At 2017年6月23日
本文作者: HackCV
\
卷积神经网络(ConvNets 或者 CNNs)属于神经网络的范畴,已经在诸如图像识别和分类的领域证明了其高效的能力。卷积神经网络可以成功识别人脸、物体和交通信号,从而为机器人和自动驾驶汽车提供视力。
在上图中,卷积神经网络可以
更新时间:2024-06-12 06:03
我们知道卷积神经网络(convnet)在计算机视觉问题上表现出色,原因在于它能够进行卷积运算,从局部输入图块中提取特征,并能够将表示模块化,同时可以高效地利用数据。这些性质让卷积神经网络在计算机视觉领域表现优异,同样也让它对序列处理特别有效。时间可以被看作一个空间维度,就像二维图像的高度或宽度。
对于某些序列处理问题,比如金融时间序列数据,这种一维卷积神经网络的效果可以媲美RNN[循环神经网络],而且计算代价通常要小很多。最近,一维卷积神经网络[通常与空洞卷积核(dilated kernel)一起使用]已经在音频生成和机器翻译领域取得了巨大成功。除了这
更新时间:2024-05-20 02:09
本文将带你遍历机器学习领域最受欢迎的算法。系统地了解这些算法有助于进一步掌握机器学习。当然,本文收录的算法并不完全,分类的方式也不唯一。不过,看完这篇文章后,下次再有算法提起,你想不起它长处和用处的可能性就很低了。本文还附有两张算法思维导图供学习使用。 在本文中,我将提供两种分类机器学习算法的方法。一是根据学习方式分类,二是根据类似的形式或功能分类。这两种方法都很有用,不过,本文将侧重后者,也就是根据类似的形式
更新时间:2024-05-20 02:09
在MNIST上只有91%正确率,实在太糟糕。在这个小节里,我们用一个稍微复杂的模型:卷积神经网络来改善效果。这会达到大概99.2%的准确率。虽然不是最高,但是还是比较让人满意。
卷积层(Convolutional layer),卷积神经网路中每层卷积层由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法优化得到的。卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的网络能从低级特征中迭代提取更复杂的特征。
线性整流层(Rectified Linea
更新时间:2024-05-20 02:09
本文内容对应旧版平台与旧版资源,其内容不再适合最新版平台,请查看新版平台的使用说明
新版量化开发IDE(AIStudio):
https://bigquant.com/wiki/doc/aistudio-aiide-NzAjgKapzW
新版模版策略:
https://bigquant.com/wiki/doc/demos-ecdRvuM1TU
新版数据平
更新时间:2024-05-17 10:30
更新时间:2024-05-15 10:35
首先解释一下标题: CNN:卷积神经网络(Convolutional Neural Network), 在图像处理方面有出色表现,不是被川普怒怼的那个新闻网站; 股票涨跌:大家都懂的,呵呵; 股票图片:既然使用CNN,那么如果输入数据是股票某个周期的K线图片就太好了。当然,本文中使用的图片并不是在看盘软件上一张一张截下来的,而是利用OHLC数据“画”出来的; 尝试:这个词委婉一点说就是“一个很好的想法^_^",比较直白的说法是“没啥效果T_T”。
进入正题: 首先是画出图片。本文目前是仿照柱线图画的。 ![{w:100}](/wi
更新时间:2023-11-28 10:03
请问如何搭建简单的resnet
就给我展示最小单元好了
更新时间:2023-10-09 08:20
12月7日,BigQuant发布年度重磅报告(https://bigquant.com/wiki/doc/niandu-zhongbang-bao-DeepAlphaCNN-juanji-shenjingwangluo-qXe3iEgfRI),发布了Deep Alpha-CNN模型,该模型采用7层一维卷积神经网络,并引入残差,降低模型复杂度,防止梯度爆炸/消失,达到更好收敛。
1、7层的卷积神经网络表现好于2层,能够学习到更多的市场特征。
2、研究发现当kernel size、batch size、feature map等参数越小,模型表现
更新时间:2023-06-29 08:42
深度学习量化交易策略是从海量历史数据中利用统计原理通过数据挖掘和逻辑验证的方式发掘出超额收益来源。相比于传统的线性模型,深度学习模型的表示能力更强,能够学习的特征更多。本文以卷积神经网络为例,介绍深度学习模型在量化择时模型中的应用。
卷积神经网络是一种常用的机器学习模型,相比于传统的全连接神经网络,卷积神经网络通过卷积层和池化层的结构,使得输出的感受野更宽,同时卷积核的权值是共享的,从而有效减少参数数量,卷积神经网络通过卷积层、池化层、全连接层不同块的组合结构设计,使
更新时间:2023-06-13 06:53
请问一下卷积神经网络训练出来的结果如何做因子分析
因子分析的输入需要DataSource对象。例如把close_0这个特征做因子分析,需要如下转换一下 lst = [‘close_0’] ds = DataSource.write_pickle(lst) 然后把ds传给因子分析模块即可。所以可以在因子分析模块之前添加一个python自定义模块做如上的转换即可,如还有疑问,请分享一下策略连接,一起看看。 image
BigQuant策略组
更新时间:2023-06-01 14:26
更新时间:2022-11-20 03:34
1958 年感知机的诞生以及1986 年反向传播算法的出现,为深度学习奠定了基础。
1989 年,卷积神经网络(CNN)首次被提出,共用卷积核的方式很大程度上减少了模型中需要被训练的参数,在图像识别等方面有更好表现。
2000 年,一类非常重要的循环神经网络(RNN),长短期记忆神经网络(LSTM)被提出,在一定程度上缓解了梯度消失和梯度爆炸等问题。
2009 年,深度信念网络(DBN)与深度玻尔兹曼机(DBM)先后被提出,其中 DBM是多个受限玻尔兹曼机(RBM)相连构成的无向图,而 DBN 是在最远离可视层处为 RBM,其余层为贝叶斯信念网络的混合模型。
同年,图神经网络(GNN)
更新时间:2022-09-29 03:27
<InvalidArgumentError: Incompatible shapes: [1024,1,2,1] vs. [1024,1]>
第二个卷积层m2 conv2D能否降维,为什么报错差2个维度?1024这个数如何计算出来的
https://bigquant.com/experimentshare/87f3e3f91e2b4cc9a578dcd23cc4aecc
\
更新时间:2022-02-21 07:04
原文标题:Deep Residual Learning for Image Recognition
发布时间:2015年
作者:Kaiming He Xiangyu Zhang Shaoqing Ren Jian Sun Microsoft Research
越深的神经网络训练起来越困难。本文展示了一种残差学习框架,能够简化使那些非常深的网络的训练,该框架使得层能根据其
更新时间:2021-11-30 08:30