\
更新时间:2023-10-09 07:09
更新时间:2023-10-09 06:35
本策略就在stockranker模板策略上改了些因子,标注没改
计算收益:5日收盘价(作为卖出价格)除以明日开盘价(作为买入价格) shift(close, -5) / shift(open, -1)
怎么就只有一个因子体现出来,其它财务因子等在模型上体现不出
更新时间:2023-10-09 06:32
随机森林的例子里是使用特征列表里面已有的预计算因子作为因子添加的, 请问 不是预计算的因子 或者是一些自定义的因子 如何去作为输入源输入到随机森林里面 请技术大佬指点一下
\
更新时间:2023-10-09 03:32
求一个范例,谢谢
更新时间:2023-10-09 03:24
最好更细粒度的, 比如分钟级别。
好像没找到。 求例子。
更新时间:2023-10-09 03:04
965,双休,不加班,福利待遇好
211/985本硕博
数学,计算机,金融工程,统计等相关专业
机器学习,量化研究员,C++开发,python开发,数据开发,运维,全栈,风控,市场。
加分项:ACM-ICPC奖牌,NOIP、NOI奖牌,数学/物理奥赛奖牌。
大厂经验
base北上杭深
薪资open
V:cm2435428253
邮箱:ina@quantjob.cn
更新时间:2023-09-28 06:04
965,双休,不加班,福利待遇好
211/985本硕博
数学,计算机,金融工程,统计等相关专业
机器学习,量化研究员,C++开发,python开发,数据开发,运维,全栈,风控,市场。
加分项:ACM-ICPC奖牌,NOIP、NOI奖牌,数学/物理奥赛奖牌。
大厂经验
base北上杭深
薪资open
V:cm2435428253
邮箱:ina@quantjob.cn
更新时间:2023-09-28 06:04
{{use_style}}
adaboost自适应提升树算法,用于分类,此算法基于boosting,根据上次分类的准确率确定下次训练每个样本的权值,将修改过权值的新数据集送给下层分类器进行训练,最后将每次训练得到的分类器融合,作为最后的决策分类器。
表名:adaboost_classifier.v1
类别 | 显示名称 | 名称 | 类型 | 描述 | 必填/默认 |
---|---|---|---|---|---|
输入端 | 训练数据 | training_ds | 通用 | 训练数据,如果传入,则需要指定模 |
更新时间:2023-09-11 02:44
本期提问者:bq22fw19、bq61ym2n、1855680***、bqhz06vb
利用市场信息进行量化投资主要涉及以下步骤:
更新时间:2023-09-01 02:45
小白如何学习?出现错误提示后,有没有好的解决方案,有没有专门对接的群?
\
更新时间:2023-08-02 06:20
可看视频听老师的详细讲解
问:机器学习在量化中,怎样在过程中查看策略、理解机器学习的逻辑和修正?
答:
1)可解释性
2)如何减少过拟合
目前
更新时间:2023-08-02 06:20
更新时间:2023-08-02 06:18
222
更新时间:2023-07-21 03:16
\
更新时间:2023-06-29 06:56
思考了很久从哪里讲量化交易,决定还是从人生中的第一本量化书籍开始,本专栏的目的也是把记录自己的读书过程,把书越读越薄!第一次读这本书的时候,已经是5年前了,作为量化实验室的新丁,被要求阅读的就是这本书,并且实现书中的交易策略,了解到了很多很多基础的概念,书中的代码多数已经不能用,所用的语言也是matlab,这次写系列读书笔记,我将使用PYTHON语言(现在用的比较多),这里并不是说matlab过时了,我到现在依旧认为在矩阵处理及可视化上matlab仍然具有绝对优势。周围很多策略开发者仍然在使用matlab!
Quantitative Trading是E.P CHAN的第一本书,在外网有响
更新时间:2023-06-20 06:57
\
更新时间:2023-06-14 03:02
在阅读本文之前,请确定你已经了解了神经网络的基本结构以及前向传播、后向传播的基本原理,如果尚未了解,可以查看下文。
[神经网络初探chrer.com ](https://link.zhihu.com/?target=http%3A//chrer.com/2018/07/19/%25E7%25A5%259E%25E7%25BB%258F%25E7%25BD%2591%25E7%25BB%
更新时间:2023-06-14 03:02
2018年的TensorFlow技术交流峰会已经结束了,介绍了Tensorflow的各种新功能和技术。本次峰会汇集了来自世界各地的各种机器学习用户,与TensorFlow团队和社区进行为期一整天的技术性交流,演示和对话。主要的技术分享者包括:Anitha Vijayakumar,Megan Kacholia,Jeff Dean和Rajat Monga等。文末附本次分享视频下载链接。
下面是本此分享的目录
![](/community/uploads/default/original/3X/6/9/6926316317b243be8f9acc3131912cdf22d078c7.j
更新时间:2023-06-14 03:02
前面我们提到,机器学习在本质上,就是找好一个好用的函数。而人工神经网络最牛的地方可能就在于,它可以在理论上证明:“一个包含足够多隐层神经元的多层前馈网络,能以任意精度逼近任意预定的连续函数[1]”。
这个定理也被称之为通用近似定理(Universal Approximation Theorem)。这里的“Universal”,也有人将其翻译成“万能的”,由此可以看出来,这个定理的能量有多大。
图2-4 通用近似定理
更新时间:2023-06-14 03:02
著名学者赫伯特·西蒙教授(Herbert Simon,1975年图灵奖获得者、1978年诺贝尔经济学奖获得者)曾对“学习”下过一个定义:“如果一个系统,能够通过执行某个过程,就此改进了它的性能,那么这个过程就是学习”。
大师果然名不虚传,永远都是那么言简意赅,一针见血。从西蒙教授的观点可以看出,学习的核心目的就是改善性能。
其实对于人而言,这个定义也是适用的。比如,我们现在正在学习深度学习的知识,其本质目的就是为了提升自己在机器学习上的认知水平。如果我们仅仅是低层次的重复性学习,而没有达到认知升级的目
更新时间:2023-06-14 03:02
在《未来简史》一书中,赫拉利说,根据数据主义的观点,人工智能实际上就是找到一种高效的“电子算法”,用以代替或在某项指标上超越人类的“生物算法”。
那么,任何一个“电子算法”都要实现一定的功能(Function),才有意义。
在计算机术语中,将“Function”翻译成“函数”,这多少有点“词不达意”,因为它并没有达到“信、达、雅”的标准,除了给我们留下一个抽象的概念之外,几乎什么也没有剩下。但这一称呼已被广泛接受,我们也只能约定俗成地把“功能”叫作“函数”。
根据台湾大学李宏毅博士的通俗说法,
所谓机器学习,在形式上可近似等同于,在数据对象中
更新时间:2023-06-14 03:02
前面我们感性认知了机器学习的三大门派(监督学习、非监督学习、半监督学习)。在传统的机器学习分类中,并没有包含强化学习。但实际上,在连接主义学习中,还有一类人类学习常用、机器学习也常用的算法—强化学习(ReinforcementLearning,简称RL)。
机器学习的本质,在于改善机器的“智能”水平。那我们就要问问,什么是智能了。关于智能的定义很多,正所谓“仁者见仁,智者见智”。比如说,中国另一位先哲孟子则说:
“是非之心,智也”《孟子·告子上》。
孟子认为,能分辨是非得失,就是有智能的表现。
而这里的“是非”之别,在西方,可用莎士比亚的名句 “**to b
更新时间:2023-06-14 03:02
新年新气象!进入2018年,专栏还未更新过。我一直在忙着1月底的一个投稿,希望这次能全力以赴中个顶会!不然真的压力好大,不好找工作呀!现在文章基本写完,于是空出时间来,对去年开始就一直在整理的Github上的迁移学习仓库作了一些整理与归纳,希望可以更清晰更条理,对大家更有帮助。
【Github仓库地址:jindongwang/transferlearning】
*题外话:首先我要感谢对此Github项目进行支持的每个同学和研
更新时间:2023-06-14 03:02
本次介绍一篇被计算机视觉顶会CVPR 2018接收的文章:《Importance Weighted Adversarial Nets for Partial Domain Adaptation》。文章作者团队来自澳大利亚卧龙岗大(University of Wollongong)。
我们目前接触过的绝大部分迁移学习问题情景都是:源域和目标域的特征空间与类别空间一致,只是数据的分布不一致,如何进行迁移。也就是说,源域和目标域要是几类,都是几类。但是这种情况显然具有很大的限制性:在真实应用中,我们往往不知道目标域的类别,更不用说它是否和源域的类别完全一样。这就极大地限制了它的应用。
更新时间:2023-06-14 03:02