更新时间:2023-12-11 06:50
老师您好,
我学习上面的视频文章,想试运行代码,但运行不下去,没办法回测,是我哪里没有配置对吗?谢谢老师!
\
# 我们取前0.6的数据量作为训练集
date = data['date'].unique
更新时间:2023-12-08 08:18
更新时间:2023-11-27 06:17
更新时间:2023-11-26 16:58
在机器学习模型建立过程中通常需要对模型中的超参数进行优化,本文给大家介绍超参优化模块,它可以帮助大家对我们平台上的机器学习模型进行超参数优化,让你的收益更上一层楼
在机器学习里,我们本质上是对损失函数进行最优化的过程。过程类似下面的曲面,算法试图去寻找损失曲面的全局最小值,当然损失曲面实际中不一定是凸曲面, 可能会更加凹凸不平,存在多个局部高低点。
我们还是回到主题,讲述的重点在于超参数
更新时间:2023-11-26 16:58
本文原载于how-to-start-a-deep-learning-project,并且在机器之心上有翻译(如何从零开始构建深度学习项目?这里有一份详细的教程)。
忽略中英文的标题,因为这并非是一个入门的详细教程,而是在深度学习应用中各个步骤阶段
更新时间:2023-11-26 16:58
\
**徐啸寅
更新时间:2023-11-02 07:29
请问如何搭建简单的resnet
就给我展示最小单元好了
更新时间:2023-10-09 08:20
验证集通过这个端口传入,构造方法和训练集一样。只需要设定开始和结束的日期。
步长可以通过
![{w:100}{w:100}](/wiki/api/attachments.redirect?id=276f2f17-0d2e
更新时间:2023-10-09 07:35
https://bigquant.com/experimentshare/75aff243f241447da1d1994ed9d29c44
如何实现分类任务啊,怎么在原有策略上修改
更新时间:2023-10-09 07:05
可以发一个纯代码模型下参数优化的策略例子么?想学习一下纯代码下的参数寻优
更新时间:2023-10-09 02:22
写在前面:读TensorFlow的这篇官网教程,给了我很大的帮助,该教程对seq2seq模型在理论上和代码实现上都有简要介绍。感觉有必要翻译一下做个记录,文章很长,不会做到一字一句的翻译,有些不好翻译的地方我会给出原句,有不严谨的地方望谅解。
本文目录:
更新时间:2023-06-14 03:02
本文主要介绍tf.Tensor的各种常用属性,张量是对矢量和矩阵向潜在的更高维度的泛化。对内,TensorFlow 将张量表现为基本数据类型的 n 维数组。
在编写 TensorFlow 程序时,操控和传递的主要目标是 tf.Tensor
。tf.Tensor
目标表示一个部分定义的计算,最终会产生一个值。TensorFlow 程序首先建立 tf.Tensor
目标图,详细说明如何基于其他可用张量来计算每个张量,然后运行该图的部分内容以获得所期望的结果。
tf.Tensor
有以下属性:
float32
,int32
或 string
)更新时间:2023-06-14 03:02
我们知道,在机器学习中的“有监督学习”算法里,在假设空间 中,构造一个决策函数 ,对于给定的输入 ,由 给出相应的输出 ,这个实际输出值 和原先预期值 可能不一致。
于是,我们需要定义一个损失函数(loss function) ,也有人称损失函数为代价函数(cost function)来度量预期和实际二者之间的“落差”程度 。这个损失函数通常记作
$L(Y,\overline Y ) = L(Y,f(X))$
,其中
$Y$
为预期输出值(也称标签),
$\overline Y =f(X)$
为实际输出值,
$X$
为样本。为了方便
更新时间:2023-06-14 03:02
神经网络模型的效果以及优化的目标是通过损失函数(loss function)来定义的,本文介绍两个经典的损失函数,分别对应监督学习中的分类问题和回归问题
并介绍如何采用Tensorflow中的API进行实现。
通过神经网络解决多分类问题最常用的方法是设置 个输出节点,
更新时间:2023-06-14 03:02
神经网络是一门重要的机器学习技术。它是目前最为火热的研究方向--深度学习的基础。学习神经网络不仅可以让你掌握一门强大的机器学习方法,同时也可以更好地帮助你理解深度学习技术。
本文以一种简单的,循序的方式讲解神经网络。适合对神经网络了解不多的同学。本文对阅读没有一定的前提要求,但是懂一些机器学习基础会更好地帮助理解本文。
神经网络是一种模拟人脑的神经网络以期能够实现类人工智能的机器学习技术。人脑中的神经网络是一个非常复杂的组织。成人的大脑中估计有1000亿个神经元之多。
![图1 人脑神经网络](/wiki/api/attachments.redirect?id=c4bd3664-94c
更新时间:2023-06-14 03:02
文章居然超长了,接上篇
Fully convolutional networks
Each layer of data in a convnet is a three-dimensional array of size h × w × d, where h and w are spatial dimensions, and d is the feature or channel dimension. The first layer is the image, with pixel size h × w, and d color channels. Locations in hi
更新时间:2023-06-14 03:02
在上一篇文章中我们简单说了说AIC,BIC和L1,L2正则化的东西,而今天这篇文章,我们将着重说说正则化.
1:什么是正则化?
首先,拿过来上一篇文章的定义:
√正则化:在损失函数中给每个参数 w 加上权重,引入模型复杂度指标,从而抑制模型噪声,减小 过拟合。
使用正则化后,损失函数 loss 变为两项之和:
loss = loss(y 与 y_) + REGULARIZER*loss(w)
其中,第一项是预测结果与标准答案之间的差距,如之前讲过的交叉熵、均方误差等;第二项是正则化计算结果。
2:正则化如何计算?
① L1 正则化: 𝒍𝒐𝒔𝒔𝑳𝟏 = ∑𝒊 |�
更新时间:2023-06-14 03:02
本来主要介绍机器学习中常见的损失函数MSE的定义以及它的求导特性。
数理统计中均方误差是指参数估计值与参数值之差平方的期望值,记为MSE。MSE是衡量“平均误差”的一种较方便的方法,MSE可以评价数据的变化程度,MSE的值越小,说明预测模型描述实验数据具有更好的精确度。
在统计学中,该参数计算的是拟合数据和原始对应点的误差的平方和,计算公式为:
![SSE =\sum{i=1}^mwi(yi-\hat{yi})^2](https://www.zhihu.com/equation?tex=SSE+%3D%5Csum%7Bi%3D1%7D%5Emw
更新时间:2023-06-14 03:02
chentq关于XGBoost的slides,图文并茂,浅显易懂。
先从有监督学习,回归树等基本概念讲解,然后引入Gradient Boosting的具体内容。
![](data:image/svg+xml;utf8,<svg%20xm
更新时间:2023-06-14 03:02
如今机器学习和深度学习如此火热,相信很多像我一样的普通程序猿或者还在大学校园中的同学,一定也想参与其中。不管是出于好奇,还是自身充电,跟上潮流,我觉得都值得试一试。对于自己,经历了一段时间的系统学习(参考[《机器学习/深度学习入门资料汇总》](https://link.zhihu.com/?target=https%3A//link.jianshu.com/%3Ft%3Dhttps%253A%252F%252Fcaiquanliu.github.io%252F2017%252F11%252F12%252F%2525E6%25259C%2525BA%2525E5%25
更新时间:2023-06-14 03:02
番外篇正式开始,我们主要利用番外篇的时间聊一些机器学习中的黑盒部分——没错,就是优化算法。之前接受过前辈的教诲,一个机器学习的套路可以分解成三个部分——模型,目标和优化方法。模型用来定义待解决的问题,目标(一般也会被称作损失函数)用来明确评价模型质量的方法,而优化算法则是具体解决求解过程的问题。有了这三个部分,我们可以说在学术的角度上我们基本上就搞定了一个机器学习问题。之所以在前面加上了学术这两个字,是因为在工业界一个机器学习的问题就不止这三部了。
好了回到正题,我们回到前面的三个部分,一般来说第一部分是最灵活的,第二部分也算灵活,但还是有一定的约束的,然而第三部分——一般来说都是非常确定的
更新时间:2023-06-14 03:02
更新时间:2023-06-14 03:02
这几天重新梳理了一边GBM,看了很多篇经典论文,又看了xgboost相关的东西,总结分享一下,更好的观看体验点击这里。
![](data:image/svg+xml;utf8,<svg%20xmln
更新时间:2023-06-14 03:02
传统的基于大类因子的因子加权方法可以抽象成简单的神经网络,指定损失函数后可以以一个时间截面数据作为批量通过基于梯度的优化算法学习大类因子内部的权重和大类间的权重
在一定的情形下,最小化预测收益率和实际收益率的均方误差等价于最大化ZSCORE的IC,基于均方误差学习参数相当于找到一组参数使得模型ZSCORE过去一段时间的平均IC最高。
如果不考虑大类因子的标准化层,基于大类的线性网络和简单线性网络等价,但之所以依然采用大类网络在于这种设计下更便于我们实践中对各个大类因子进行直接或者间接的干预
我们尝试了对量价总个大类的权重进行适当的控制,发现在对大类因子进行适当程度的干预
更新时间:2023-06-01 14:28