思路:当一支股票获利10% 有1000股为了保住利润,先卖出500股降低仓位,留下500股扩大利润。
那位大神帮忙写一下回测中的代码。先谢了!!!
\
更新时间:2022-12-20 14:20
我也遇到了这情况,当天买入了预卖出股票
更新时间:2022-12-20 14:20
context.order_value调用时,实际下单金额跟传入金额有正负3%差距,请问是什么原因?
我发现同一天,不同股票,下单相同金额,看回测结果发现金额最多有正负3%左右的差距,这个是什么原因?
调用context.order_value之前我print了value参数,确定是一样的,排除了手续费和滑点(成本价跟开盘价一样)。
下面是一个样例,value参数传入是16.8398万,可是回测结果是
173883.719 (+3.2%差距)
168494.351 (0.05%差距)
163319.581(-3.1%差距)
![{w:100}](/w
更新时间:2022-12-20 14:20
不知道为何我的买入逻辑只有一个,而且明显买入amount应该是100的整数,但是最后一笔买入数量不知为何就不是100整数。有人可以帮忙解答一下吗?谢谢
我买入逻辑如下:
amount = math.floor(cash / current_price / 100) * 100
context.order(context.symbol(instrument), amount)
下载的交易详情数据:
更新时间:2022-12-20 14:20
更新时间:2022-12-09 09:17
回测时,买了股票后为什么总资产会变成买股票钱的2倍左右?
下单的方式我试过下面3种,都是这样的结果。
rv = context.order(context.ins, order_num, price, order_type=OrderTyp
更新时间:2022-11-09 01:23
有个疑问哈。
对于daily的回测来说, 策略里经常有 if data.can_trade(asset) then context.order(asset, 10000)。 但问题是,if里判断是今天这个股票是否可交易,到了明天要执行交易的时候,可能股票是停牌的。所以,这个IF THEN有实际价值吗?
这个函数其实没什么用,之前的模版有用到,现在很少用这个函数了。
\
更新时间:2022-11-09 01:23
策略回测,之前都好用
最近2天开始报错
显然,这个股票在2020-08-24是可以交易的。
包括其他股票,之前都好用,现在都只能在21年后交易
\
更新时间:2022-09-21 12:37
如何将回测模块设置成T+2开盘买入,T+3尾盘卖出(目前我们支持的是T+1买入)
https://www.bilibili.com/video/BV1bT411u71x?share_source=copy_web
[https://bigquant.com/experimentshare/157e67091c1b4534b7ea1f0a4255a38b](https://bigquant.com/experi
更新时间:2022-07-04 07:51
我试过用stockrank来标注做空股票和期货,(默认参数,回测做空的代码都写好)标注上加-,如-shift(close,-2)/shift(open,-1)或-shift(open,-1)/shift(open,-2),随机生成几百甚至上千的策略回测所取得的效果普遍没有做多好,大多数情况甚至连正收益都达不到,而做多好多都轻松取得正收益,是算法的特性还是有其他窍门?
https://www.bilibili.com/video/BV1Ny4y1E7KJ
\
更新时间:2022-06-14 01:53
国泰君安alpha191中的count、regbeta、regresi三个函数怎么定义?
https://www.bilibili.com/video/BV1ov4y1Z7Yg?p=2&share_source=copy_web
\
# 国泰君安 Count(a, n),过去5天close_0 > close_1 的天数
conditions = where(close_0
更新时间:2022-06-08 02:40
如何利用60分钟K线来合成120分钟K线呢?
https://www.bilibili.com/video/BV1d54y1d7tv/
https://bigquant.com/experimentshare/4e081ef44d3246f48551c6eee74f629d
\
更新时间:2022-05-24 03:20
更新时间:2022-03-02 06:13
更新时间:2022-01-17 14:35
本文主要分享一个基于Deep Q Network的对于个股的择时策略
本文主要使用的是Deep Q Network。DQN是强化学习的一种方法,结合了Q-learning和深度学习神经网络。
Q-learning是用一张表来记录各个状态下的各个行为的q值,它能记录的状态的个数是有限的。而在金融市场上,价格、交易量等数据都是连续的,因此可以组合成无数种状态,如果用一张表来记录,那么这张表将大到无法想象。
而DQN不用表来记录Q值,而是用一个深度学习神经网络来预测Q值,并通过不断更新神经网络从而学习到最优的行动路径。结构
更新时间:2021-08-24 03:00
本文整理了一些关于强化学习在金融领域的应用的中外文献、相关课程和网站以及github上的一些代码实现,希望对大家研究有所帮助。后期强化学习相关模块会在平台上线,敬请期待!
《用于日常股票交易的多代理Q-Learning方法》
原文:《A Multiagent Approach to Q-Learning for Daily Stock Trading》
摘要:本文提出了一个新的股票交易框架,试图进一步提高基于强化学习的系统的绩效。
更新时间:2021-07-30 09:21
更新时间:2021-07-30 07:25