LSTM

长短期记忆网络(LSTM)是一种特殊的循环神经网络(RNN),在金融领域具有广泛的应用。LSTM的独特之处在于其能够捕捉并记住时间序列数据中的长期依赖关系,这在分析金融市场的动态性和预测未来趋势时尤为关键。在处理如股票价格、汇率或市场指数等金融数据时,LSTM能有效地利用过去的信息,结合当前的输入,以生成对未来状态的准确预测。这使得LSTM在算法交易、风险管理、资产定价等金融应用中成为一个强有力的工具。总体来看,LSTM在金融中提供了一种基于深度学习的有效方法,帮助理解和预测市场的复杂行为。

卷积2D+LSTM,shape大小设置错误

策略使用的 卷积2D+LSTM

提示:shape大小设置错误,摸索了一天,没有发现问题所在

策略:

https://bigquant.com/experimentshare/a3477d1ea1774470bce74969f937905a


\

更新时间:2022-11-25 08:36

LSTM Networks应用于股票市场探究

摘要

BigQuant平台上的StockRanker算法在选股方面有不俗的表现,模型在15、16年的回测收益率也很高(使用默认因子收益率就达到170%左右)。然而,StockRanker在股灾时期回撤很大(使用默认因子回撤55%),因此需要择时模型,控制StockRanker在大盘走势不好时的仓位。 LSTM(长短期记忆神经网络)是一种善于处理和预测时间序列相关数据的RNN。

更新时间:2022-11-12 07:19

LSTM模块输入层的shape(7,5)表示什么?

问题

LSTM模块输入层的shape(7,5)表示什么?

解答

{w:100}{w:100}

更新时间:2022-11-09 01:23

基于Transformer模型的智能选股策略

导语

RNN、LSTM和GRU网络已在序列模型、语言模型、机器翻译等应用中取得不错的效果。循环结构(recurrent)的语言模型和编码器-解码器体系结构取得了不错的进展。

但是,RNN固有的顺序属性阻碍了训练样本间的并行化,对于长序列,内存限制将阻碍对训练样本的批量处理。这样,一是使得RNN的训练时间会相对比较长,对其的优化方法也比较少,二是对于长时间记忆来说,其的效果也大打折扣。

而Transformer的核心,注意力机制(Attention)允许对输入输出序列的依赖项进行建模,而无需考虑它们在序列中的距离,这样对上面两个RNN中比较突出的问题就有了一个比较好的解决办法。本文将

更新时间:2022-11-03 08:33

通过LSTM-CNN模型,用相同数据的不同表示形式预测股价

摘要

作者:Taewook Kim, HaYoung Kim

出处:PLOS ONE, 2019-02

预测股票价格在制定交易策略或选择买卖股票的适当时机中起着重要作用。作者提出了融合长短期记忆-卷积神经网络(LSTM-CNN)模型,该模型结合了从相同数据的不同表示形式(即股票时间序列和股票图表图像)中的特征,以预测股票价格。所提出的模型由LSTM和CNN组成,用于提取时间特征和图像特征。作者使用SPDR S&P 500 ETF数据来衡量所提出模型相对于单个模型(CNN和LSTM)的性能。LSTM-CNN模型在预测股票价格方面优于单个模型。此外,作者发现蜡烛图是用于预测股票价格的最

更新时间:2022-11-02 09:07

lstm+cnn深度学习预测+大盘风控

有偿提供源码,有需要请加我v

微信号

AI_believers

更新时间:2022-11-02 08:26

递归神经网络RNN,长短期记忆细胞(LSTM)的分行业多因子预测 国信证券_20181228_

摘要

递归神经网络RNNRNN不同于传统神经网络的感知机的最大特征就是跟时间挂上钩,即包含了一个循环的网络,就是下一时间的结果不仅受下一时间输入的影响,也受上一个时间输出的影响,进一步地说就是信息具有持久的影响力。人们在看到新的信息的时候产生的看法或者判断,不仅仅是对当前信息的反应,先前的经验、思想也会参与到这次信息推断当中。

分行业建模往期系列报告中,我们尝试了不同神经网络模型在整个股票分析上的表现能力。 而股票市场中,经常观察到某一行业或者板块的股票在特定时期中表现出齐涨共跌的特征。这说明,在这些股票中,存在着某种行业性或产业性的共同影响因素。另外,根据产业周期理论,任何产业或行

更新时间:2022-10-24 11:14

LSTM 模型市场择时策略-华西证券-20210909

摘要

量化择时交易策略

机器学习量化交易策略的制定,是通过从海量历史数据中,利用计算机强大的处理能力,挖掘并分析出那些能够为投资者带来收益的各种大概率可行的投资方式来实现的。通过数学模型对这些策略进行分析并加以验证,以期望让投资者获得更高更稳定的收益,或更合理地规避风险。

长短期记忆模型通过记忆单元有效地学习长期依赖关系,在金融市场预测中具有明显优势

长短期记忆网络是人工神经网络的一种,具有负责计算时间序列中各个观测值之间依赖性的能力,同时具有快速适应趋势中急剧变化的固有能力。所以,长短期记忆模型可以在波动的时间序列中很好地工作。在处理股票价格这样的时间序列数

更新时间:2022-10-09 06:15

LSTM TensorFlow 教程

\

简介

本教程旨在介绍如何使用TensorFlow以及LSTM神经网络进行深度学习(了解更多机器学习请参见教程

@ML@ML

)。本教程的演示方法为:以实数序列的预测模型为例进行论述,并对股票价格或股指指数进行实测。

序列数据

本教程将使用神经网络作为序列数据的预测模型。接下来我们介绍什么是序列数据。

数学上的实数序列

vv为一有限实数序列,即v=(v1,...,vM)v=(v1,...,vM),其中∀i=1,...,M∀i=1,...,M,vi∈Rvi∈R为实数,MM为一非负整数,亦即vv是一包含MM个元素的实向量(若M=0M=0

更新时间:2022-07-29 05:57

LSTM模型构建

导语

本文将介绍LSTM模型的原理与构建其选股模型的流程

LSTM简介

循环神经网络(RNN)

传统的神经网络是基于所有时刻的输入和输出间相互独立的假设来生成已学习数据的静态模型,并根据新接受的数据进行运算。但在很多情景中,如语音识别中预测当前的单词的含义,需要知道之前的输出结合上文语境做出判断,循环神经网络(Recurrent Neural Networks,简称 RNN)可以用于解决这类问题。 循环神经网络也被称为递归神经网络是受到人类对于近期事件会有所保留的背景而启发,循环神经网络会随着数据的输入生成动态模型。 理论上,RNN可以支持无限长的时间序列,然

更新时间:2021-07-30 08:19

LSTM Networks应用于股票市场之Sequential Model

策略案例


https://bigquant.com/experimentshare/8594992a1d9345d98cbe949eb6297067

\

更新时间:2021-07-30 08:10

LSTM Networks应用于股票市场之Functional Model

LSTM Networks应用于股票市场之Functional Model。本文是已初步探索,如下示例中 使用 LSTM 预测沪深300 涨跌。

用一个input(6 features * 30 time series)训练LSTM,将训练结果与另一个辅助性输入label(np.round(close/500))一起作为input输入至Dense层 LSTM future_return_5作为output(time series=30,features=[‘close’,‘open’,‘high’,‘low’,‘amount’,‘volume’])

策略案例

[https:/

更新时间:2021-07-30 08:10

基于Transformer模型的智能选股策略

导语

RNN、LSTM和GRU网络已在序列模型、语言模型、机器翻译等应用中取得不错的效果。循环结构(recurrent)的语言模型和编码器-解码器体系结构取得了不错的进展。

但是,RNN固有的顺序属性阻碍了训练样本间的并行化,对于长序列,内存限制将阻碍对训练样本的批量处理。这样,一是使得RNN的训练时间会相对比较长,对其的优化方法也比较少,二是对于长时间记忆来说,其的效果也大打折扣。

而Transformer的核心,注意力机制(Attention)允许对输入输出序列的依赖项进行建模,而无需考虑它们在序列中的距离,这样对上面两个RNN中比较突出的问题就有了一个比较好的解决办法。本文将

更新时间:2021-07-07 08:58

基于Transformer模型的智能选股策略

导语

RNN、LSTM和GRU网络已在序列模型、语言模型、机器翻译等应用中取得不错的效果。循环结构(recurrent)的语言模型和编码器-解码器体系结构取得了不错的进展。

但是,RNN固有的顺序属性阻碍了训练样本间的并行化,对于长序列,内存限制将阻碍对训练样本的批量处理。这样,一是使得RNN的训练时间会相对比较长,对其的优化方法也比较少,二是对于长时间记忆来说,其的效果也大打折扣。

而Transformer的核心,注意力机制(Attention)允许对输入输出序列的依赖项进行建模,而无需考虑它们在序列中的距离,这样对上面两个RNN中比较突出的问题就有了一个比较好的解决办法。本文将

更新时间:2021-07-03 14:26

分页第1页第2页
{link}