CNN

"CNN"(卷积神经网络),是一种具有巨大价值的深度学习技术。其图像和数据处理能力,使得金融市场分析、风险评估以及投资策略制定等方面得以显著提升。CNN能有效识别并学习金融市场中的复杂模式,如股票价格变动、市场情绪波动等,为金融决策提供强有力的数据支持。此外,CNN在算法交易、信用评分、欺诈检测等金融应用中也展现出无可比拟的优势,通过自动学习和优化交易策略,实现更精准快速的交易执行,提升金融业务的效率和智能化水平。总的来说,CNN是推动金融行业创新发展的重要工具。

机器学习:16-CNN

  • 运行环境:AIStudio 3.0
  • 策略说明:==本代码以教学目的为主,请自行调参==


\

策略源码:

{{membership}}

https://bigquant.com/codeshare/ccbddd56-eddd-4a7f-95e2-88e8a0432a3d

\

更新时间:2024-04-25 07:40

怎么知道cnn模型ai训练看到的数据是怎么样的

更新时间:2024-02-01 15:49

利用CNN对股票“图片”进行涨跌分类——一次尝试

首先解释一下标题: CNN:卷积神经网络(Convolutional Neural Network), 在图像处理方面有出色表现,不是被川普怒怼的那个新闻网站; 股票涨跌:大家都懂的,呵呵; 股票图片:既然使用CNN,那么如果输入数据是股票某个周期的K线图片就太好了。当然,本文中使用的图片并不是在看盘软件上一张一张截下来的,而是利用OHLC数据“画”出来的; 尝试:这个词委婉一点说就是“一个很好的想法^_^",比较直白的说法是“没啥效果T_T”。


进入正题: 首先是画出图片。本文目前是仿照柱线图画的。 ![{w:100}](/wi

更新时间:2023-11-28 10:03

深度学习前沿 | 利用GAN预测股价走势

导语

本文是对于medium上Boris博主的一篇文章的学习笔记,这篇文章中利用了生成对抗性网络(GAN)预测股票价格的变动,其中长短期记忆网络LSTM是生成器,卷积神经网络CNN是鉴别器,使用贝叶斯优化(以及高斯过程)和深度强化学习(DRL)优化模型中超参数。此外,文章中非常完整地实现了从特征抽取、模型建立、参数优化、实现预测的过程,其中运用了多种机器学习方法,比如BERT进行文本情绪分析、傅里叶变换提取总体趋势、autoencoder识别高级特征、XGboost实现特征重要性排序等。本文学习的思路是:GAN算法概览 – 项目思路 – 项目详解。拟在学习完成后,在Bigquant平台

更新时间:2023-11-26 16:58

基于一维CNN模型的智能选股策略

导语

这是本系列专题研究的第四篇:基于卷积神经网络CNN的深度学习因子选股模型。卷积神经网络(Convolutional Neural Network, CNN),是计算机视觉研究和应用领域中最具影响力的模型之一。同样,如果将时间看作一个空间维度,类似于二维图像的高度或宽度,CNN也可以对时间序列处理产生令人惊喜的效果。本文首先大致介绍了CNN的原理,然后详细解释了一维CNN模型如何进行应用于时间序列并进行特征选取,最后以一个实

更新时间:2023-11-26 16:58

Tensorflow第三讲 - 深入MNIST(CNN)

构建一个多层卷积网络 CNN

在MNIST上只有91%正确率,实在太糟糕。在这个小节里,我们用一个稍微复杂的模型:卷积神经网络来改善效果。这会达到大概99.2%的准确率。虽然不是最高,但是还是比较让人满意。

卷积层

卷积层(Convolutional layer),卷积神经网路中每层卷积层由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法优化得到的。卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的网络能从低级特征中迭代提取更复杂的特征。

线性整流层

线性整流层(Rectified Linea

更新时间:2023-11-26 16:58

CNN深度学习模型中输入层报错

问题



https://bigquant.com/experimentshare/3aff241f03194816912c850f1f118ab6

\

更新时间:2023-10-09 07:46

CNN-LSTM的连接原理?

如题:CNN模块中的卷积层和LSTM模块在可视化工作界面通过连线连接,他们之间是通过什么原理进行融合和连接的呢?

希望得到平台工程师的解答,谢谢!

更新时间:2023-10-09 07:07

我在改LSTM+CNN代码时,运行不成功

求助平台策略工程师

我在改LSTM+CNN代码时,把输入特征改为15维时,运行不成功

策略地址为:https://bigquant.com/codeshare/8b2a7e00-18b2-4fd4-8777-6875307dae1e

\

更新时间:2023-10-09 03:22

为什么根据LSTM+CNN深度学习预测股价案例没有成交?

根据【模板策略】LSTM+CNN深度学习预测股价案例没有成交?

https://bigquant.com/wiki/doc/shendu-gujia-4teFqoC7MV

https://bigquant.com/community/t/topic/194980

https://bigquant.com/experimentshare/52d3c0772a2d4ef9bb5950c7c6646170

\

更新时间:2023-10-09 03:16

【年度重磅研报】Deep Alpha-CNN 7层卷积神经网络能否穿越熊牛?

擂台赛背景

12月7日,BigQuant发布年度重磅报告(https://bigquant.com/wiki/doc/niandu-zhongbang-bao-DeepAlphaCNN-juanji-shenjingwangluo-qXe3iEgfRI),发布了Deep Alpha-CNN模型,该模型采用7层一维卷积神经网络,并引入残差,降低模型复杂度,防止梯度爆炸/消失,达到更好收敛。

研究结论要点:

1、7层的卷积神经网络表现好于2层,能够学习到更多的市场特征。

2、研究发现当kernel size、batch size、feature map等参数越小,模型表现

更新时间:2023-06-29 08:42

【参赛】Deep Alpha-CNN策略克隆&调参擂台赛-20211230

擂台赛背景

12月7日,BigQuant发布年度重磅报告(https://bigquant.com/wiki/doc/niandu-zhongbang-bao-DeepAlphaCNN-juanji-shenjingwangluo-qXe3iEgfRI),发布了Deep Alpha-CNN模型,该模型采用7层一维卷积神经网络,并引入残差,降低模型复杂度,防止梯度爆炸/消失,达到更好收敛。

研究要点及结论

原始模型98个因子选取1个时间截面,这里我改成了98个因子5个时间截面,神经网络结构其他部分变化不大。因为比赛时间有限,且单次模型训练时间较长,因此模型没有怎么调仓,参数

更新时间:2023-06-29 08:42

【参赛】Deep Alpha-CNN策略克隆&调参擂台赛

\

更新时间:2023-06-27 03:23

FCN(1)——从分类问题出发

前面我们介绍了许多利用CNN进行分类任务的模型,今天我们来看看用CNN做分割的模型。我们的主要内容来自这篇文章——《Fully Convolutional Networks for Semantic Segmentation》。

图像分割

首先我们来简单看看图像分割的任务是什么样的。所谓的图像分割就是将一幅图像中各个实体的边界确定下来,这样我们可以通过寻找这个实体的边界确定实体的位置。在自然场景中我们可以根据画面中的实体进行划分,在文档图片中,我们也可以找出每一个文字的边界。这些都可以算作是完成分割任务。

当然,上面的描述还不太具有可操作性,我们可以把问题做进一步地转化。我们可以把

更新时间:2023-06-14 03:02

CNN--两个Loss层计算的数值问题

写在前面,这篇文章的原创性比较差,因为里面聊的已经是老生长谈的事情,但是为了保持对CNN问题的完整性,还是把它单独拿出来写一篇了。已经知道的童鞋可以忽略,没看过的童鞋可以来瞧瞧。

这次我们来聊一聊在计算Loss部分是可能出现的一些小问题以及现在的解决方法。其实也是仔细阅读下Caffe代码中有关Softmax loss和sigmoid cross entropy loss两个部分的真实计算方法。

Softmax

有关Softmax的起源以及深层含义这里不多说了,我们直接来看看从定义出发的计算方法:

def naive_softmax(x):
    y = np.exp(x

更新时间:2023-06-14 03:02

CNN的数值实验

前面我们聊过了Caffe的整体架构,相信各位对Caffe的结构已经比较熟悉了,下面我们就来看看CNN中的一些细节问题,也顺着前面的思路进一步进行。

在好久之前介绍ReLU的时候,我们曾经提到ReLU相比于Sigmoid的一些优势:

  • Sigmoid整体的梯度偏小,在外向传导的过程中会不断让梯度的幅度变小;
  • Sigmoid存在一个梯度饱和问题:那就是如果非线性部分的输出靠近0或者1,那么反向传导到了这里,Sigmoid的梯度会接近于0,这样就会导致梯度到这里就传导不下去了。从前面我们的那张图中可以看得出来。

有了这两个原因,我们认为ReLU这样的非线性函数在前向后向的传递

更新时间:2023-06-14 03:02

CNN入门讲解:为什么要做训练(Training)?

今天我要讲的是一个很基础很基础的东西,适合初学者:

模型训练(Training)

如果你刚开始接触CNN,你一定会好奇,我给CNN灌入大量的数据做训练,到底要让CNN获得一种什么能力

首先我们的目的是:

给数据作分类

怎么给数据作分类:

要么找到数据的因果关系,要么找到数据间的关联

我们希望找到一个规则,或者一个表达式,它的作用是

理清楚数据间的关系,或者拟合数据的分布

我们就暂时给这个作用起名叫:

kernel

因为这个kernel 的作用,我们对数据之间的关系更加明晰,进而更好的分类,如下图所示:

![](/communit

更新时间:2023-06-14 03:02

CNN——L1正则的稀疏性

这一回我们把目光转向正则化。Caffe中提供了两种正则化:L2和L1,也是大家最耳熟能详的正则化算法了。从刚开始学习机器学习开始,有关经验风险和结构风险,bias and variance,过拟合等一系列的概念都和正则化有着密切的关系。

在当年经典的机器学习课本中,大师们经常用这样一张图来教导我们:

(图片来自网络,侵删)

从上面这张图可以看出,损失函数的主体是一个凸函数,它的等高线均匀地向外扩散。因

更新时间:2023-06-14 03:02

CNN——架构上的一些数字

前面说了很多关于CNN的数值上的事,下面我们来看看网络架构。网络架构也是CNN的一个核心部分,由于CNN的特点是它的深度,所以深度模型的网络架构给了人们无数的想象,于是也有了无数的前辈创造了各种各样的模型。我们今天来看看那些经典的模型,不是从感性的角度上去观看,而是从理性的角度——去尝试计算一些具体的数字,让我们描绘出这些模型的一个简单轮廓。

我们的目标问题是ImageNet分类问题,那么我们主要关注哪些问题呢?

  1. 模型的深度,模型的核心层(卷积层、全连接层)的数量,这代表了模型的某种“能力”,基本上大家都有一个共识,那忽略优化问题的情况下,就是越深的模型在函数拟合方面效果越好。这里直

更新时间:2023-06-14 03:02

CNN入门讲解:什么是激活函数(Activation Function)

各位看官老爷们

( ̄▽ ̄)/

这里是波波给大家带来的CNN卷积神经网络入门讲解

不定期我将给大家带来绝对原创,脑洞大开,幽默风趣的深度学习知识点入门讲解

麻烦大家给我点个赞,就是那种让我看起来,写的还不错的样子!

拜托了!!o(´^`)o

希望大家多多支持,多多关注

微信公众号:follow_bobo

啦啦啦(~ ̄▽ ̄)~

新年好

好久不见啊

想我吗

我们前面说了卷积层,再到下采样层

根据网络结构

我们应该又进入到卷积层

我不去

学业繁忙

告辞!

![](/community/uploads/default/original/3X/f

更新时间:2023-06-14 03:02

CNN数值——ZCA

前面我们已经讲了很多有关参数合并的事情,反倒忘了介绍有关输入数据的事情,下面就来介绍一下对输入数据的初始化算法。

在Caffe的网络描述中,data layer的配置中有一项是用于配置mean_file,也就是数据的平均数值,在计算中每个数据在进入网络计算前会减去mean_file,以确保数据的整体均值为0,这样对于训练数据会更有帮助。

那么除了减去均值之外,还有什么初始化的方法呢?ZCA就是其中比较经典的初始化算法之一。

Zero Component Analysis

我们用一个例子来讲述这个初始化算法的过程。首先我们利用随机算法生成一个数据集。为了节目效果我们的数据集只有2维

更新时间:2023-06-14 03:02

CNN Dropout的极端实验

有关CNN的故事还有很多,前面我们花了一定的篇幅,讲了有关初始化算法的事情,接下来我们将换一个方向,去看看众位大神在网络结构方面做出的杰出贡献。接下来我们就来看看这一路大神们的杰作之一——Dropout Layer。

在训练过程中,Dropout Layer会丢弃一定数量的信息,只让部分数据发挥作用。而且,由于采用随机丢弃的方式,每一次进行前向后向计算时,丢弃掉的数据都会有所不同。这样,模型每一次的前向后向计算的表现都会不同。

而在预测过程中,Dropout Layer将打开所有的参数,让所有的参数发挥作用。这样就相当于把所有的参数的作用同时发挥出来,让模型有点ensemble的效果。

更新时间:2023-06-14 03:02

CNN-反卷积(1)

关于CNN的内容已经说了很多,虽然我们无法把这个长得像黑盒的东西完全摸清楚,但是我们多多少少也对它的外部结构有了一定的了解。下面我们来看看大神们对进一步探究CNN内部世界所做的工作。

这部分工作有一个响亮的Title,那就是,CNN的网络到底学到了什么?

对于浅层网络,尤其是一层网络,上面这个问题非常好回答。我们知道模型输入的特征和分布,我们也知道输出的特征和分布(这里特指监督学习),那么模型的目标就是把输入空间的数据映射到输出空间,而且映射的结果是正确的。如果我们把浅层网络替换成深层网络,还把它当作一个不可分割的整体,那么它的目标和浅层网络是完全一致的。

但问题是,我们并没有把深层网络

更新时间:2023-06-14 03:02

CNN预测股票走势基于Tensorflow(思路+程序)

源代码,请在文末查询

前言

我们希望找出跟随价格上涨的模式。通过每日收盘价,MA,KD,RSI,yearAvgPrice 本次推文研究只是展示深入学习的一个例子。 结果估计不是很好。希望抛砖引玉,给大家带来更多的思考。策略使用的数据从雅虎财务获取。

  • 什么时候要买或者卖

  • 股票走势预测

![](/community/uploads/default/original/3X/e/6/e623527d5186b76ac1a140

更新时间:2023-06-14 03:02

CNN-卷积反卷积(2)

在前面的斗图篇我们提过这篇文章《Visualizing and understanding convolutional networks》,这是一片介绍反卷积和可视化的文章,今天我们就来详细看看这篇文章的一个开源实现——来自GitHub - piergiaj/caffe-deconvnet: A deconvolutional network in caffe

首先我们给出上面这篇论文的网络结构架构:

![](/communit

更新时间:2023-06-14 03:02

分页第1页第2页第3页