高年化收益-主力资金AI策略模型分享

策略分享
标签: #<Tag:0x00007fb3da565078>

(anzi89) #1

引言:

所有的资本都是追逐利益的,这句话永远都是真理!

从2018年3月22日美国总统特朗普在白宫签署了对中国输美产品征收关税的总统备忘录,拉开了中美贸易战的序幕,至于美国为何要发动贸易战,参考2018-03-24凤凰网财经任泽平《中美贸易战原因、影响、展望及应对》的一段话:“税改、贸易保护是特朗普竞选承诺的重要组成部分。在2017年推进税改后,2018年特朗普把贸易保护作为重要议题,此次挑起中美贸易战,直接目的在于以中美贸易严重失衡迫使中国进一步对美开放市场,深层次目的在于试图重演1980年代美日贸易战以遏制中国复兴。并且,2018年是美国国会中期选举年,11月美国将迎来国会中期选举,但在5月就将进入中期选举的密集投票期,特朗普也意图打“贸易保护牌”向选民拉票,以继续维持共和党在参众两院的优势地位并争取未来连任。” 这次贸易战最终目的就是为了让中国进一步对美开放市场、遏制中国的复兴。

为何要强迫中国进一步开放市场?进一步开放哪些市场?这些还需等最终谈判结果公布才能知道答案,不管结果如何,最终目的无外乎是为了国际巨鳄资本的顺利流入,然后撸一把中国的羊毛而已。所有的资本都是追逐利益的,资本是贪婪的、无情的,资金为了利益使用一切手段。类似贸易战资金大鳄收割羊毛经典案例当数日本的“广场协议”,1985年9月,在美国的策划下,美、日、英、法、西德等5个发达工业国家的财政部长及五国央行行长在纽约广场饭店举行会议,达成五国政府联合干预[外汇]市场,使[美元]对[日元]马克等主要货币有秩序地下调,以解决美国巨额贸易赤字的协议,这就是有名的“广场协议”。

1986年1月美元/日元的汇率为203.27 到1990年01月的143.41日元升值了30%,假设此时有一个美国人拿出10万美金在1986年1月换成日元,然后在1988年12月将日元再换回美元,那么这几年的汇率收益就有30%的收益,此时净赚3万美元,拿到13万美元。当然这种简单的投资稍微有点理财经验的普通人就能算的过来,何况来的都是久经沙场的资本大鳄,说到资本大鳄,离不开股市,且看东京日经指数从1986年1月的13000点 到1986年1月38967点上涨了200%,假设还是那个美国人将10万美金换成日元购买了东京日经指数到1986年1月离场再换回美元一共赚了多少钱呢?下面做一个简单的数学题,10万美元从1986年1月换成日元为(10 x 203.27 = 2030万日元),再买入东京日经指数在最高点卖出后收益为(2030万日元 x (1+200%)= 6090万日元),然后再换回美元(6090万日元/143.41 = 42.4万美元)此时的收益明显可以算出来是多么的暴利,4年净赚了32万美元,总收益是320%。这仅仅是简单的投资收益,更何况资金大鳄股市中那些套利复利。短短的4年,这些资金几乎洗空了日本多年来积累下来了的财富,留下了失落的一代日本人。

再看中美贸易战,同样缘由的贸易赤字,美国是否已经准备对中国下手?2018年3月22日时美元/人民币的汇率是6.8,此时上证指数3290点,还是处于相对较高的位置,国外资金不可能这时候贸然进入中国市场,所以有了后来贸易战的拉锯战。从刚开始的强硬,到后来的步步妥协,最终汇率又回到6.8左右。但此时上证指数已经跌到了2553点。从这几天天汇率持续下跌,人民币加速升值来看,国外资金开始加速流向国内,未来中国市场将如何面对国外资本的冲击,会不会重蹈日本的覆辙,还是要看国家的政策来应对,我们能做的只有听党指挥,做好自己的本分工作。面对来势汹汹的国外资本,我们国家如果能引导这些资金进入到合适的地方,未来还是很乐观的。从日本的“广场协议”;事件中我们也可以找到一些合适的应对策略,比如在资金充裕的时候来发展国家的科技领域,不要跟日本那样到处去买固定资产,合理利用这些资金,大力发展国家科技领域。科创板设立确实是一个很好的政策,不论以后社会如何发展,都是以科技的发展为前提,科技是第一生产力,只要努力发展科技,才不会出现中兴被卡脖受制于它国的情况。再看科创板五大主行业:

  1. 新一代信息技术,主要包括集成电路、人工智能、云计算、大数据、物联网等。
  2. 高端装备制造和新材料,主要包括高端轨道交通、海洋工程、高端数控机床、机器人及新材料。
  3. 新能源及节能环保,主要包括新能源、新能源汽车、先进节能环保技术。
  4. 生物医药主要包括生物医药和医疗器械。
  5. 技术服务,主要指为上述四大领域提供技术服务的企业,这些都是未来经济发展的主要引领行业。都是未来的经济支柱。如此同时主要还得防止国际资本的快进快出,打好与国际资本的防守战。股价的涨跌都离不开资金的流动。

下面给大家分享一个根据主力资金量的流入过滤数据的AI策略。主要思路是根据主力资金流入占比做判断,我们将全市场的mf_net_pct_main_0占比大于0.1的股票选出来(mf_net_pct_main_0表示主力净流入占比),然后再选出适合自己市值的股票做训练,就是说主力资金有杀入一只股票时我们预测后面两天的涨跌幅详细代码如下:

克隆策略
In [3]:
# 本代码由可视化策略环境自动生成 2018年6月21日 19:51
# 本代码单元只能在可视化模式下编辑。您也可以拷贝代码,粘贴到新建的代码单元或者策略,然后修改。
class conf:
    start_date = '2016-02-01'#2016-04-20   '2016-10-27'  2017-03-16  2016-02-26
    split_date = '2018-10-16'
    start_trade = '2018-10-17'
    end_date='2019-01-11'

    # 特征 https://bigquant.com/docs/data_features.html,你可以通过表达式构造任何特征
    features1 = [
             #量价因子
        'volume_0/volume_1',
#         '(high_0-low_0+high_1-low_1+high_2-low_2+high_3-low_3+high_4-low_4)/5',
        'daily_return_1',
        'return_10',
        'return_20',
        'avg_amount_5',
        'avg_amount_20',
        #换手率因子
        'avg_turn_5',
        #估值因子
        'pb_lf_0',
        #资金流
        'mf_net_amount_main_0',
        'rank_avg_mf_net_amount_5',
        'rank_return_10', 
        'swing_volatility_10_0/swing_volatility_60_0'
    ]
    extra_fields = ['st_status_0',       
                    'price_limit_status_0',
                   ]
    
m1 = M.instruments.v2(
    start_date=conf.start_date,
    end_date=conf.split_date,
    market='CN_STOCK_A',
    instrument_list='',
    max_count=0
)

m2 = M.advanced_auto_labeler.v2(
    instruments=m1.data,
    label_expr="""# #号开始的表示注释
# 0. 每行一个,顺序执行,从第二个开始,可以使用label字段
# 1. 可用数据字段见 https://bigquant.com/docs/data_history_data.html
#   添加benchmark_前缀,可使用对应的benchmark数据
# 2. 可用操作符和函数见 `表达式引擎 <https://bigquant.com/docs/big_expr.html>`_

# 计算收益:5日收盘价(作为卖出价格)除以明日开盘价(作为买入价格)
shift(close, -5) / shift(open, -1)

# 极值处理:用1%和99%分位的值做clip
clip(label, all_quantile(label, 0.01), all_quantile(label, 0.99))

# 将分数映射到分类,这里使用20个分类
all_wbins(label, 20)

# 过滤掉一字涨停的情况 (设置label为NaN,在后续处理和训练中会忽略NaN的label)
where(shift(high, -1) == shift(low, -1), NaN, label)
""",
    start_date='',
    end_date='',
    benchmark='000300.SHA',
    drop_na_label=True,
    cast_label_int=True
)
m33 = M.input_features.v1(
    features=conf.features1
)

m3 = M.input_features.v1(
    features=conf.features1+conf.extra_fields
)



m4 = M.general_feature_extractor.v6(
    instruments=m1.data,
    features=m3.data,
    start_date='',
    end_date='',
    before_start_days=60
)

m5 = M.derived_feature_extractor.v2(
    input_data=m4.data,
    features=m3.data,
    date_col='date',
    instrument_col='instrument'
)

m7 = M.join.v3(
    data1=m2.data,
    data2=m5.data,
    on='date,instrument',
    how='inner',
    sort=False
)

# Python 代码入口函数,input_1/2/3 对应三个输入端,data_1/2/3 对应三个输出端
def m15_run_bigquant_run(input_1, input_2, input_3):
    # 示例代码如下。在这里编写您的代码

    df = input_1.read_df()
    ins= m1.data.read_pickle()['instruments']
    start= m1.data.read_pickle()['start_date']
    end= m1.data.read_pickle()['end_date']
    
    df1 = D.features(ins, start, end, fields=['mf_net_pct_main_0','market_cap_float_0'])#,'mf_net_amount_0'

    df_final=pd.merge(df,df1,on=['date','instrument'])
    df_final = df_final[df_final['mf_net_pct_main_0'] > 0.1]
    df_final = df_final[df_final['price_limit_status_0'] == 2]
    df_final = df_final[df_final['market_cap_float_0'] < 10000000000]

    
    print('-----------------------------------',len(df_final))
    data_1 = DataSource.write_df(df_final)  

    return Outputs(data_1=data_1, data_2=None, data_3=None)

m15 = M.cached.v3(
    input_1=m7.data,
    run=m15_run_bigquant_run
)

m13 = M.dropnan.v1(
    input_data=m15.data_1
)

m6 = M.stock_ranker_train.v5(
    training_ds=m13.data,
    features=m33.data,
    learning_algorithm='排序',
    number_of_leaves=30,
    minimum_docs_per_leaf=1000,
    number_of_trees=20,
    learning_rate=0.1,
    max_bins=1023,
    feature_fraction=1,
    m_lazy_run=False
)

m9 = M.instruments.v2(
    start_date=T.live_run_param('trading_date', conf.start_trade),
    end_date=T.live_run_param('trading_date', conf.end_date),
    market='CN_STOCK_A',
    instrument_list='',
    max_count=0
)

m10 = M.general_feature_extractor.v6(
    instruments=m9.data,
    features=m3.data,
    start_date='',
    end_date='',
    before_start_days=60
)

m11 = M.derived_feature_extractor.v2(
    input_data=m10.data,
    features=m3.data,
    date_col='date',
    instrument_col='instrument'
)

# Python 代码入口函数,input_1/2/3 对应三个输入端,data_1/2/3 对应三个输出端
def m16_run_bigquant_run(input_1, input_2, input_3):
    # 示例代码如下。在这里编写您的代码

    df = input_1.read_df()
    ins= m9.data.read_pickle()['instruments']
    start= m9.data.read_pickle()['start_date']
    end= m9.data.read_pickle()['end_date']
    df1 = D.features(ins, start, end, fields=['mf_net_pct_main_0','market_cap_float_0'])#,'mf_net_amount_0'

    
    df_final=pd.merge(df,df1,on=['date','instrument'])
    df_final = df_final[df_final['mf_net_pct_main_0'] > 0.1]
    df_final = df_final[df_final['price_limit_status_0'] == 2]
    df_final = df_final[df_final['market_cap_float_0'] < 10000000000]
    df_final = df_final[df_final['st_status_0'] == 0]
    print('-----------------------------------',len(df_final))
    data_1 = DataSource.write_df(df_final)


    return Outputs(data_1=data_1, data_2=None, data_3=None)
m16 = M.cached.v3(
    input_1=m11.data,
    run=m16_run_bigquant_run
)

m14 = M.dropnan.v1(
    input_data=m16.data_1
)

m8 = M.stock_ranker_predict.v5(
    model=m6.model,
    data=m14.data,
    m_lazy_run=False
)

# 回测引擎:每日数据处理函数,每天执行一次
def m12_handle_data_bigquant_run(context, data):
    # 按日期过滤得到今日的预测数据
    ranker_prediction = context.ranker_prediction[
        context.ranker_prediction.date == data.current_dt.strftime('%Y-%m-%d')]

    # 1. 资金分配
    # 平均持仓时间是hold_days,每日都将买入股票,每日预期使用 1/hold_days 的资金
    # 实际操作中,会存在一定的买入误差,所以在前hold_days天,等量使用资金;之后,尽量使用剩余资金(这里设置最多用等量的1.5倍)
    is_staging = context.trading_day_index < context.options['hold_days'] # 是否在建仓期间(前 hold_days 天)
    cash_avg = context.portfolio.portfolio_value / context.options['hold_days']
    cash_for_buy = min(context.portfolio.cash, (1 if is_staging else 1.5) * cash_avg)
    cash_for_sell = cash_avg - (context.portfolio.cash - cash_for_buy)
    positions = {e.symbol: p.amount * p.last_sale_price
                 for e, p in context.perf_tracker.position_tracker.positions.items()}

    # 2. 生成卖出订单:hold_days天之后才开始卖出;对持仓的股票,按机器学习算法预测的排序末位淘汰
    if not is_staging and cash_for_sell > 0:
        equities = {e.symbol: e for e, p in context.perf_tracker.position_tracker.positions.items()}
        instruments = []
        for x in equities :
            if not context.has_unfinished_sell_order(equities[x]):
                instruments.append(x)
                
        for instrument in instruments:
            context.order_target(context.symbol(instrument), 0)
            cash_for_sell -= positions[instrument]
            if cash_for_sell <= 0:
                break

    # 3. 生成买入订单:按机器学习算法预测的排序,买入前面的stock_count只股票
    buy_cash_weights = context.stock_weights
    buy_instruments = list(ranker_prediction.instrument[:len(buy_cash_weights)])
    max_cash_per_instrument = context.portfolio.portfolio_value * context.max_cash_per_instrument
    for i, instrument in enumerate(buy_instruments):
        cash = cash_for_buy * buy_cash_weights[i]
        if cash > max_cash_per_instrument - positions.get(instrument, 0):
            # 确保股票持仓量不会超过每次股票最大的占用资金量
            cash = max_cash_per_instrument - positions.get(instrument, 0)
        if cash > 0:
            current_price = data.current(context.symbol(instrument), 'price')
            amount = math.floor(cash / current_price - cash / current_price % 100)
            context.order(context.symbol(instrument), amount)

# 回测引擎:准备数据,只执行一次
def m12_prepare_bigquant_run(context):
    pass

# 回测引擎:初始化函数,只执行一次
def m12_initialize_bigquant_run(context):
    # 加载预测数据
    context.ranker_prediction = context.options['data'].read_df()

    # 系统已经设置了默认的交易手续费和滑点,要修改手续费可使用如下函数
    context.set_commission(PerOrder(buy_cost=0.0003, sell_cost=0.0013, min_cost=5))
    # 预测数据,通过options传入进来,使用 read_df 函数,加载到内存 (DataFrame)
    # 设置买入的股票数量,这里买入预测股票列表排名靠前的5只
    stock_count = 1
    # 每只的股票的权重,如下的权重分配会使得靠前的股票分配多一点的资金,[0.339160, 0.213986, 0.169580, ..]
    context.stock_weights = T.norm([1 / math.log(i + 2) for i in range(0, stock_count)])
    # 设置每只股票占用的最大资金比例
    context.max_cash_per_instrument = 0.5
    context.options['hold_days'] = 1

m12 = M.trade.v3(
    instruments=m9.data,
    options_data=m8.predictions,
    start_date='',
    end_date='',
    handle_data=m12_handle_data_bigquant_run,
    prepare=m12_prepare_bigquant_run,
    initialize=m12_initialize_bigquant_run,
    volume_limit=0.025,
    order_price_field_buy='open',
    order_price_field_sell='close',
    capital_base=100000,
    benchmark='000300.SHA',
    auto_cancel_non_tradable_orders=True,
    data_frequency='daily',
    price_type='后复权',
    plot_charts=True,
    backtest_only=False,
    amount_integer=False
)
[2019-01-12 11:23:38.009348] INFO: bigquant: instruments.v2 开始运行..
[2019-01-12 11:23:38.016129] INFO: bigquant: 命中缓存
[2019-01-12 11:23:38.016986] INFO: bigquant: instruments.v2 运行完成[0.00766s].
[2019-01-12 11:23:38.019459] INFO: bigquant: advanced_auto_labeler.v2 开始运行..
[2019-01-12 11:23:38.022878] INFO: bigquant: 命中缓存
[2019-01-12 11:23:38.023697] INFO: bigquant: advanced_auto_labeler.v2 运行完成[0.004236s].
[2019-01-12 11:23:38.025562] INFO: bigquant: input_features.v1 开始运行..
[2019-01-12 11:23:38.028980] INFO: bigquant: 命中缓存
[2019-01-12 11:23:38.029860] INFO: bigquant: input_features.v1 运行完成[0.004289s].
[2019-01-12 11:23:38.031634] INFO: bigquant: input_features.v1 开始运行..
[2019-01-12 11:23:38.034775] INFO: bigquant: 命中缓存
[2019-01-12 11:23:38.035543] INFO: bigquant: input_features.v1 运行完成[0.003911s].
[2019-01-12 11:23:38.040956] INFO: bigquant: general_feature_extractor.v6 开始运行..
[2019-01-12 11:23:38.045303] INFO: bigquant: 命中缓存
[2019-01-12 11:23:38.046073] INFO: bigquant: general_feature_extractor.v6 运行完成[0.005125s].
[2019-01-12 11:23:38.048351] INFO: bigquant: derived_feature_extractor.v2 开始运行..
[2019-01-12 11:23:38.052488] INFO: bigquant: 命中缓存
[2019-01-12 11:23:38.053423] INFO: bigquant: derived_feature_extractor.v2 运行完成[0.005083s].
[2019-01-12 11:23:38.055482] INFO: bigquant: join.v3 开始运行..
[2019-01-12 11:23:38.058682] INFO: bigquant: 命中缓存
[2019-01-12 11:23:38.059425] INFO: bigquant: join.v3 运行完成[0.003941s].
[2019-01-12 11:23:38.063100] INFO: bigquant: cached.v3 开始运行..
[2019-01-12 11:23:38.066480] INFO: bigquant: 命中缓存
[2019-01-12 11:23:38.067104] INFO: bigquant: cached.v3 运行完成[0.004007s].
[2019-01-12 11:23:38.068926] INFO: bigquant: dropnan.v1 开始运行..
[2019-01-12 11:23:38.072219] INFO: bigquant: 命中缓存
[2019-01-12 11:23:38.072875] INFO: bigquant: dropnan.v1 运行完成[0.003951s].
[2019-01-12 11:23:38.074942] INFO: bigquant: stock_ranker_train.v5 开始运行..
[2019-01-12 11:23:38.080247] INFO: bigquant: 命中缓存
[2019-01-12 11:23:38.081212] INFO: bigquant: stock_ranker_train.v5 运行完成[0.006233s].
[2019-01-12 11:23:38.083303] INFO: bigquant: instruments.v2 开始运行..
[2019-01-12 11:23:38.198210] INFO: bigquant: instruments.v2 运行完成[0.114848s].
[2019-01-12 11:23:38.203378] INFO: bigquant: general_feature_extractor.v6 开始运行..
[2019-01-12 11:23:43.256832] INFO: 基础特征抽取: 年份 2018, 特征行数=337816
[2019-01-12 11:23:43.430636] INFO: 基础特征抽取: 年份 2019, 特征行数=28443
[2019-01-12 11:23:43.444612] INFO: 基础特征抽取: 总行数: 366259
[2019-01-12 11:23:43.447125] INFO: bigquant: general_feature_extractor.v6 运行完成[5.243716s].
[2019-01-12 11:23:43.449770] INFO: bigquant: derived_feature_extractor.v2 开始运行..
[2019-01-12 11:23:43.751783] INFO: derived_feature_extractor: 提取完成 volume_0/volume_1, 0.003s
[2019-01-12 11:23:43.754966] INFO: derived_feature_extractor: 提取完成 swing_volatility_10_0/swing_volatility_60_0, 0.002s
[2019-01-12 11:23:43.867306] INFO: derived_feature_extractor: /y_2018, 337816
[2019-01-12 11:23:44.165020] INFO: derived_feature_extractor: /y_2019, 28443
[2019-01-12 11:23:44.228747] INFO: bigquant: derived_feature_extractor.v2 运行完成[0.778931s].
[2019-01-12 11:23:44.233498] INFO: bigquant: cached.v3 开始运行..
----------------------------------- 7659
[2019-01-12 11:23:46.860493] INFO: bigquant: cached.v3 运行完成[2.626978s].
[2019-01-12 11:23:46.862992] INFO: bigquant: dropnan.v1 开始运行..
[2019-01-12 11:23:46.913754] INFO: dropnan: /data, 7635/7659
[2019-01-12 11:23:46.921308] INFO: dropnan: 行数: 7635/7659
[2019-01-12 11:23:46.923415] INFO: bigquant: dropnan.v1 运行完成[0.060409s].
[2019-01-12 11:23:46.925718] INFO: bigquant: stock_ranker_predict.v5 开始运行..
[2019-01-12 11:23:46.978921] INFO: StockRanker: prepare data: prediction ..
[2019-01-12 11:23:49.649441] INFO: stock_ranker_predict: 准备预测: 7635 行
[2019-01-12 11:23:49.650441] INFO: stock_ranker_predict: 正在预测 ..
[2019-01-12 11:23:59.824653] INFO: bigquant: stock_ranker_predict.v5 运行完成[12.898904s].
[2019-01-12 11:23:59.837193] INFO: bigquant: backtest.v7 开始运行..
[2019-01-12 11:23:59.839440] INFO: bigquant: biglearning backtest:V7.1.4
[2019-01-12 11:24:12.172625] INFO: algo: TradingAlgorithm V1.4.2
[2019-01-12 11:24:21.912301] INFO: algo: trading transform...
[2019-01-12 11:24:22.255727] INFO: Performance: Simulated 61 trading days out of 61.
[2019-01-12 11:24:22.257251] INFO: Performance: first open: 2018-10-17 09:30:00+00:00
[2019-01-12 11:24:22.258341] INFO: Performance: last close: 2019-01-11 15:00:00+00:00
  • 收益率67.62%
  • 年化收益率744.75%
  • 基准收益率-0.2%
  • 阿尔法2.17
  • 贝塔0.6
  • 夏普比率6.68
  • 胜率0.68
  • 盈亏比2.18
  • 收益波动率32.42%
  • 信息比率0.45
  • 最大回撤4.42%
[2019-01-12 11:24:23.041118] INFO: bigquant: backtest.v7 运行完成[23.203891s].

(cloudseasail) #2

敢不敢换个时间段回测一下?


(anzi89) #3

此贴希望能起到抛转引玉,剩下的看自己的造化了!同时也欢迎大家一起讨论,如果训练出更好的结果,希望大家能把回测结果分享下,一起验证此模式的有效性!


(vinjie2018) #4

无论哪个策略都有它的时效性的,换个区间估计就没这么好了


(冰柠檬) #5

想法不错 值得学习借鉴


(anzi89) #6

经过两天时间优化了,收益提升了10%!


(anzi89) #7

加了些技术指标,提升后的效果


(zhudan) #8

复制你的代码 跑出来的结果怎么不一样 只改了两天训练时间 收益就成负的了


(anzi89) #9

更改日期后导致训练集数据变化,此时需要重新寻找特征集训练!此框架过滤主力资金后训练样本已经变得很少了,因此对训练集小的改变,会产生比较大的变化!


(chenys101) #10

兄弟之前的微信群还在不,想一起探讨因子筛选


(iQuant) #11

添加添加客服微信:bigq100,小Q拉您入群。


(anzi88) #12

还在的!


(chenys101) #13

拉一下呗


(anzi88) #14

微信13128708901


(qci133) #15

挺好的想法。下面酸的朋友有点喷的无厘头了,难道要人家把优化好的完完全全普适的策略拿出来给你才行么?好的想法拿出来共同探讨,就是值得鼓励的。


(tunge2k) #16

略微i修改时间段,结果完全不一样,不可能说这个策略是经不起时间考验的。另外学习数据不是越多越好吗,怎么向前对,结果变得很差了


(chaoskey) #17

论坛上所有分享的策略都是起个抛砖引玉的作用。 不能指望从论坛上克隆一个策略就能赚钱。

反正我从论坛上就学到了很多,不妨将好的思路融入自己的策略试试。

完全有这种可能出现,同样的思路, 应用的自己策略中效果奇好(甚至比原作者的策略还好); 当然,出现相反的情况也很正常。