本文内容对应旧版平台与旧版资源,其内容不再适合最新版平台,请查看新版平台的使用说明
新版量化开发IDE(AIStudio):
https://bigquant.com/wiki/doc/aistudio-aiide-NzAjgKapzW
新版模版策略:
https://bigquant.com/wiki/doc/demos-ecdRvuM1TU
新版数据平
更新时间:2024-05-20 10:55
本文是对于medium上Boris博主的一篇文章的学习笔记,这篇文章中利用了生成对抗性网络(GAN)预测股票价格的变动,其中长短期记忆网络LSTM是生成器,卷积神经网络CNN是鉴别器,使用贝叶斯优化(以及高斯过程)和深度强化学习(DRL)优化模型中超参数。此外,文章中非常完整地实现了从特征抽取、模型建立、参数优化、实现预测的过程,其中运用了多种机器学习方法,比如BERT进行文本情绪分析、傅里叶变换提取总体趋势、autoencoder识别高级特征、XGboost实现特征重要性排序等。本文学习的思路是:GAN算法概览 – 项目思路 – 项目详解。拟在学习完成后,在Bigquant平台
更新时间:2024-05-20 02:09
这是本系列专题研究的第四篇:基于卷积神经网络CNN的深度学习因子选股模型。卷积神经网络(Convolutional Neural Network, CNN),是计算机视觉研究和应用领域中最具影响力的模型之一。同样,如果将时间看作一个空间维度,类似于二维图像的高度或宽度,CNN也可以对时间序列处理产生令人惊喜的效果。本文首先大致介绍了CNN的原理,然后详细解释了一维CNN模型如何进行应用于时间序列并进行特征选取,最后以一个实
更新时间:2024-05-20 02:09
在MNIST上只有91%正确率,实在太糟糕。在这个小节里,我们用一个稍微复杂的模型:卷积神经网络来改善效果。这会达到大概99.2%的准确率。虽然不是最高,但是还是比较让人满意。
卷积层(Convolutional layer),卷积神经网路中每层卷积层由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法优化得到的。卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的网络能从低级特征中迭代提取更复杂的特征。
线性整流层(Rectified Linea
更新时间:2024-05-20 02:09
本文为旧版实现,仅供学习参考。
https://bigquant.com/wiki/doc/demos-ecdRvuM1TU
https://bigquant.com/experimentshare/c13d6baefe5d4c75bb87eea9364b0f75
\
更新时间:2024-05-20 00:54
本文内容对应旧版平台与旧版资源,其内容不再适合最新版平台,请查看新版平台的使用说明
新版量化开发IDE(AIStudio):
https://bigquant.com/wiki/doc/aistudio-aiide-NzAjgKapzW
新版模版策略:
https://bigquant.com/wiki/doc/demos-ecdRvuM1TU
新版数据平
更新时间:2024-05-17 10:30
本文内容对应旧版平台与旧版资源,其内容不再适合最新版平台,请查看新版平台的使用说明
新版量化开发IDE(AIStudio):
https://bigquant.com/wiki/doc/aistudio-aiide-NzAjgKapzW
新版模版策略:
https://bigquant.com/wiki/doc/demos-ecdRvuM1TU
新版数据平
更新时间:2024-05-17 08:24
本文内容对应旧版平台与旧版资源,其内容不再适合最新版平台,请查看新版平台的使用说明
新版量化开发IDE(AIStudio):
https://bigquant.com/wiki/doc/aistudio-aiide-NzAjgKapzW
新版模版策略:
https://bigquant.com/wiki/doc/demos-ecdRvuM1TU
新版数据平
更新时间:2024-05-17 06:49
本文内容对应旧版平台与旧版资源,其内容不再适合最新版平台,请查看新版平台的使用说明
新版量化开发IDE(AIStudio):
https://bigquant.com/wiki/doc/aistudio-aiide-NzAjgKapzW
新版模版策略:
https://bigquant.com/wiki/doc/demos-ecdRvuM1TU
新版数据平
更新时间:2024-05-17 03:48
\
{{membership}}
https://bigquant.com/codeshare/ccbddd56-eddd-4a7f-95e2-88e8a0432a3d
\
更新时间:2024-04-25 07:40
更新时间:2024-02-01 15:49
首先解释一下标题: CNN:卷积神经网络(Convolutional Neural Network), 在图像处理方面有出色表现,不是被川普怒怼的那个新闻网站; 股票涨跌:大家都懂的,呵呵; 股票图片:既然使用CNN,那么如果输入数据是股票某个周期的K线图片就太好了。当然,本文中使用的图片并不是在看盘软件上一张一张截下来的,而是利用OHLC数据“画”出来的; 尝试:这个词委婉一点说就是“一个很好的想法^_^",比较直白的说法是“没啥效果T_T”。
进入正题: 首先是画出图片。本文目前是仿照柱线图画的。 ![{w:100}](/wi
更新时间:2023-11-28 10:03
更新时间:2023-10-09 07:46
如题:CNN模块中的卷积层和LSTM模块在可视化工作界面通过连线连接,他们之间是通过什么原理进行融合和连接的呢?
希望得到平台工程师的解答,谢谢!
更新时间:2023-10-09 07:07
求助平台策略工程师
我在改LSTM+CNN代码时,把输入特征改为15维时,运行不成功
策略地址为:https://bigquant.com/codeshare/8b2a7e00-18b2-4fd4-8777-6875307dae1e
\
更新时间:2023-10-09 03:22
根据【模板策略】LSTM+CNN深度学习预测股价案例没有成交?
https://bigquant.com/wiki/doc/shendu-gujia-4teFqoC7MV
或
https://bigquant.com/community/t/topic/194980
https://bigquant.com/experimentshare/52d3c0772a2d4ef9bb5950c7c6646170
\
更新时间:2023-10-09 03:16
12月7日,BigQuant发布年度重磅报告(https://bigquant.com/wiki/doc/niandu-zhongbang-bao-DeepAlphaCNN-juanji-shenjingwangluo-qXe3iEgfRI),发布了Deep Alpha-CNN模型,该模型采用7层一维卷积神经网络,并引入残差,降低模型复杂度,防止梯度爆炸/消失,达到更好收敛。
1、7层的卷积神经网络表现好于2层,能够学习到更多的市场特征。
2、研究发现当kernel size、batch size、feature map等参数越小,模型表现
更新时间:2023-06-29 08:42
\
更新时间:2023-06-27 03:23
前面我们介绍了许多利用CNN进行分类任务的模型,今天我们来看看用CNN做分割的模型。我们的主要内容来自这篇文章——《Fully Convolutional Networks for Semantic Segmentation》。
首先我们来简单看看图像分割的任务是什么样的。所谓的图像分割就是将一幅图像中各个实体的边界确定下来,这样我们可以通过寻找这个实体的边界确定实体的位置。在自然场景中我们可以根据画面中的实体进行划分,在文档图片中,我们也可以找出每一个文字的边界。这些都可以算作是完成分割任务。
当然,上面的描述还不太具有可操作性,我们可以把问题做进一步地转化。我们可以把
更新时间:2023-06-14 03:02
写在前面,这篇文章的原创性比较差,因为里面聊的已经是老生长谈的事情,但是为了保持对CNN问题的完整性,还是把它单独拿出来写一篇了。已经知道的童鞋可以忽略,没看过的童鞋可以来瞧瞧。
这次我们来聊一聊在计算Loss部分是可能出现的一些小问题以及现在的解决方法。其实也是仔细阅读下Caffe代码中有关Softmax loss和sigmoid cross entropy loss两个部分的真实计算方法。
有关Softmax的起源以及深层含义这里不多说了,我们直接来看看从定义出发的计算方法:
def naive_softmax(x):
y = np.exp(x
更新时间:2023-06-14 03:02
前面我们聊过了Caffe的整体架构,相信各位对Caffe的结构已经比较熟悉了,下面我们就来看看CNN中的一些细节问题,也顺着前面的思路进一步进行。
在好久之前介绍ReLU的时候,我们曾经提到ReLU相比于Sigmoid的一些优势:
有了这两个原因,我们认为ReLU这样的非线性函数在前向后向的传递
更新时间:2023-06-14 03:02
今天我要讲的是一个很基础很基础的东西,适合初学者:
模型训练(Training)
如果你刚开始接触CNN,你一定会好奇,我给CNN灌入大量的数据做训练,到底要让CNN获得一种什么能力
首先我们的目的是:
给数据作分类
怎么给数据作分类:
要么找到数据的因果关系,要么找到数据间的关联
我们希望找到一个规则,或者一个表达式,它的作用是
理清楚数据间的关系,或者拟合数据的分布
我们就暂时给这个作用起名叫:
kernel
因为这个kernel 的作用,我们对数据之间的关系更加明晰,进而更好的分类,如下图所示:
![](/communit
更新时间:2023-06-14 03:02
这一回我们把目光转向正则化。Caffe中提供了两种正则化:L2和L1,也是大家最耳熟能详的正则化算法了。从刚开始学习机器学习开始,有关经验风险和结构风险,bias and variance,过拟合等一系列的概念都和正则化有着密切的关系。
在当年经典的机器学习课本中,大师们经常用这样一张图来教导我们:
(图片来自网络,侵删)
从上面这张图可以看出,损失函数的主体是一个凸函数,它的等高线均匀地向外扩散。因
更新时间:2023-06-14 03:02
前面说了很多关于CNN的数值上的事,下面我们来看看网络架构。网络架构也是CNN的一个核心部分,由于CNN的特点是它的深度,所以深度模型的网络架构给了人们无数的想象,于是也有了无数的前辈创造了各种各样的模型。我们今天来看看那些经典的模型,不是从感性的角度上去观看,而是从理性的角度——去尝试计算一些具体的数字,让我们描绘出这些模型的一个简单轮廓。
我们的目标问题是ImageNet分类问题,那么我们主要关注哪些问题呢?
更新时间:2023-06-14 03:02
各位看官老爷们
( ̄▽ ̄)/
这里是波波给大家带来的CNN卷积神经网络入门讲解
不定期我将给大家带来绝对原创,脑洞大开,幽默风趣的深度学习知识点入门讲解
麻烦大家给我点个赞,就是那种让我看起来,写的还不错的样子!
拜托了!!o(´^`)o
希望大家多多支持,多多关注
微信公众号:follow_bobo
啦啦啦(~ ̄▽ ̄)~
新年好
好久不见啊
想我吗
我们前面说了卷积层,再到下采样层
根据网络结构
我们应该又进入到卷积层
不
我不去
学业繁忙
告辞!
![](/community/uploads/default/original/3X/f
更新时间:2023-06-14 03:02