损失函数

损失函数在金融领域扮演着至关重要的角色,它是量化金融风险、优化投资策略和评估模型性能的关键工具。通过计算预测值与实际值之间的偏差,损失函数能够精确地反映出金融机构因市场波动、信用风险等因素而可能遭受的经济损失。这种量化的损失不仅为风险管理提供了有力依据,还有助于金融机构在制定投资策略时更加科学、合理地平衡收益与风险,从而实现资产的最大化增值。同时,损失函数也是评估金融模型性能的重要指标,通过不断优化损失函数,金融机构能够提升模型的预测能力和稳健性,以更好地应对复杂多变的金融市场环境。

逻辑回归和交叉熵

策略源码:

{{membership}}

https://bigquant.com/codeshare/e9c1b98b-e596-4e90-941d-cdb93af92c2e

\

更新时间:2023-12-11 06:50

文章回测报错:华泰研报:在XGboost中实现关于有序回归作为损失函数和评价函数

https://bigquant.com/college/courses/course-v1:public+2023110601+110601/courseware/7708009442174480802b3dd339f4ede0/45dafc16ea744216af376a7dc2961fa5/

老师您好,

我学习上面的视频文章,想试运行代码,但运行不下去,没办法回测,是我哪里没有配置对吗?谢谢老师!

  • \

    
    
    # 我们取前0.6的数据量作为训练集
    date = data['date'].unique

更新时间:2023-12-08 08:18

训练过程中报错,请问该怎么解决

https://bigquant.com/codeshare/10296b06-11cf-475f-80e7-81b7f0fbc5d5

\

更新时间:2023-11-27 06:17

关于线性回归、岭回归和Lasso回归的综合入门指南

https://bigquant.com/experimentshare/c451f287332a411cb4c7756c457318f6

\

更新时间:2023-11-26 16:58

超参寻优使用简介

导语

在机器学习模型建立过程中通常需要对模型中的超参数进行优化,本文给大家介绍超参优化模块,它可以帮助大家对我们平台上的机器学习模型进行超参数优化,让你的收益更上一层楼

超参寻优理论简介

在机器学习里,我们本质上是对损失函数进行最优化的过程。过程类似下面的曲面,算法试图去寻找损失曲面的全局最小值,当然损失曲面实际中不一定是凸曲面, 可能会更加凹凸不平,存在多个局部高低点。

{w:100}我们还是回到主题,讲述的重点在于超参数

更新时间:2023-11-26 16:58

深度学习实践经验汇总

写在前面:

本文原载于how-to-start-a-deep-learning-project,并且在机器之心上有翻译(如何从零开始构建深度学习项目?这里有一份详细的教程)。

忽略中英文的标题,因为这并非是一个入门的详细教程,而是在深度学习应用中各个步骤阶段

更新时间:2023-11-26 16:58

63rd Meetup

量化模型:

  • 如何通过python做出量化估值模型?
  • 学习线性代数和解析几何对建立模型的优势是什么?
  • 如何在XGboost中实现华泰研报关于有序回归作为损失函数和评价函数?

策略优化:

  • 为什么策略的预测结果通常不是第一只收益最高?
  • 为什么StockRanker的训练次数不是越大越好?
  • 概率在量化策略中的应用如何合理化实施?

策略实盘:

  • 如何快速判断策略是否能用于实盘?即未来也能带来收益

量化学习:

  • 如何入门量化交易?
  • 量化交易难度怎么样?



\

双十一活动预热:


**徐啸寅

更新时间:2023-11-02 07:29

请问如何搭建简单的resnet

问题

请问如何搭建简单的resnet

就给我展示最小单元好了

更新时间:2023-10-09 08:20

请教dl中一些问题

问题

  1. 如何设置训练步长,在训练模块中没有这个选项
  2. 如何设置验证集,并打印loss、mae等,按照模板智能看训练集的

{w:100}{w:100}

验证集通过这个端口传入,构造方法和训练集一样。只需要设定开始和结束的日期。

步长可以通过

![{w:100}{w:100}](/wiki/api/attachments.redirect?id=276f2f17-0d2e

更新时间:2023-10-09 07:35

Tabnet如何实现分类任务

https://bigquant.com/experimentshare/75aff243f241447da1d1994ed9d29c44

如何实现分类任务啊,怎么在原有策略上修改

更新时间:2023-10-09 07:05

纯代码参数优化

可以发一个纯代码模型下参数优化的策略例子么?想学习一下纯代码下的参数寻优

更新时间:2023-10-09 02:22

TensorFlow教程翻译 | Neural Machine Translation(seq2seq) Tutorial

写在前面:读TensorFlow的这篇官网教程,给了我很大的帮助,该教程对seq2seq模型在理论上和代码实现上都有简要介绍。感觉有必要翻译一下做个记录,文章很长,不会做到一字一句的翻译,有些不好翻译的地方我会给出原句,有不严谨的地方望谅解。

本文目录:

  • 前沿 | Introduction
  • 基础 | Basic
  • 训练- 如何构建我们的第一个NMT系统
  • 词向量 | Embedding
  • 编码器 | Encoder
  • 解码器 | Decoder
  • 损失 | Loss
  • **梯度计算和优化 | Gradient co

更新时间:2023-06-14 03:02

Tensorflow学习笔记(1): 张量及其属性

本文主要介绍tf.Tensor的各种常用属性,张量是对矢量和矩阵向潜在的更高维度的泛化。对内,TensorFlow 将张量表现为基本数据类型的 n 维数组。

在编写 TensorFlow 程序时,操控和传递的主要目标是 tf.Tensortf.Tensor 目标表示一个部分定义的计算,最终会产生一个值。TensorFlow 程序首先建立 tf.Tensor 目标图,详细说明如何基于其他可用张量来计算每个张量,然后运行该图的部分内容以获得所期望的结果。

tf.Tensor 有以下属性:

  • 数据类型(例如 float32int32string

更新时间:2023-06-14 03:02

【深度学习之美15】如何感性认识损失函数?

损失函数的定义

我们知道,在机器学习中的“有监督学习”算法里,在假设空间 中,构造一个决策函数 ,对于给定的输入 ,由 给出相应的输出 ,这个实际输出值 和原先预期值 可能不一致。

于是,我们需要定义一个损失函数(loss function) ,也有人称损失函数为代价函数(cost function)来度量预期和实际二者之间的“落差”程度 。这个损失函数通常记作

$L(Y,\overline Y ) = L(Y,f(X))$

,其中

$Y$

为预期输出值(也称标签),

$\overline Y =f(X)$

为实际输出值,

$X$

为样本。为了方便

更新时间:2023-06-14 03:02

神经网络经典损失函数以及tensorflow实现

神经网络模型的效果以及优化的目标是通过损失函数(loss function)来定义的,本文介绍两个经典的损失函数,分别对应监督学习中的分类问题和回归问题

  1. cross entropy loss function 交叉熵损失函数,对应分类问题
  2. mean squared error 均方误差,对应回归问题

并介绍如何采用Tensorflow中的API进行实现。


cross entropy loss function

通过神经网络解决多分类问题最常用的方法是设置 n 个输出节点,

更新时间:2023-06-14 03:02

神经网络浅讲:从神经元到深度学习

神经网络是一门重要的机器学习技术。它是目前最为火热的研究方向--深度学习的基础。学习神经网络不仅可以让你掌握一门强大的机器学习方法,同时也可以更好地帮助你理解深度学习技术。

本文以一种简单的,循序的方式讲解神经网络。适合对神经网络了解不多的同学。本文对阅读没有一定的前提要求,但是懂一些机器学习基础会更好地帮助理解本文。

神经网络是一种模拟人脑的神经网络以期能够实现类人工智能的机器学习技术。人脑中的神经网络是一个非常复杂的组织。成人的大脑中估计有1000亿个神经元之多。

![图1 人脑神经网络](/wiki/api/attachments.redirect?id=c4bd3664-94c

更新时间:2023-06-14 03:02

深度学习与TensorFlow:FCN论文翻译(二)

文章居然超长了,接上篇


Fully convolutional networks

Each layer of data in a convnet is a three-dimensional array of size h × w × d, where h and w are spatial dimensions, and d is the feature or channel dimension. The first layer is the image, with pixel size h × w, and d color channels. Locations in hi

更新时间:2023-06-14 03:02

深度学习与神经网络:正则化小栗子

在上一篇文章中我们简单说了说AIC,BIC和L1,L2正则化的东西,而今天这篇文章,我们将着重说说正则化.

1:什么是正则化?

首先,拿过来上一篇文章的定义:

√正则化:在损失函数中给每个参数 w 加上权重,引入模型复杂度指标,从而抑制模型噪声,减小 过拟合。

使用正则化后,损失函数 loss 变为两项之和:

loss = loss(y 与 y_) + REGULARIZER*loss(w)

其中,第一项是预测结果与标准答案之间的差距,如之前讲过的交叉熵、均方误差等;第二项是正则化计算结果。

2:正则化如何计算?

① L1 正则化: 𝒍𝒐𝒔𝒔𝑳𝟏 = ∑𝒊 |�

更新时间:2023-06-14 03:02

损失函数——MSE

本来主要介绍机器学习中常见的损失函数MSE的定义以及它的求导特性。


数理统计中均方误差是指参数估计值与参数值之差平方的期望值,记为MSE。MSE是衡量“平均误差”的一种较方便的方法,MSE可以评价数据的变化程度,MSE的值越小,说明预测模型描述实验数据具有更好的精确度。

SSE(和方差)

在统计学中,该参数计算的是拟合数据和原始对应点的误差的平方和,计算公式为:

![SSE =\sum{i=1}^mwi(yi-\hat{yi})^2](https://www.zhihu.com/equation?tex=SSE+%3D%5Csum%7Bi%3D1%7D%5Emw

更新时间:2023-06-14 03:02

《Introduction to Boosted Trees》

写在前面:

chentq关于XGBoost的slides,图文并茂,浅显易懂。

一句话简述:

先从有监督学习,回归树等基本概念讲解,然后引入Gradient Boosting的具体内容。

Review of key concepts of supervised learning

![](data:image/svg+xml;utf8,<svg%20xm

更新时间:2023-06-14 03:02

《机器学习》笔记-模型评估与选择(2)

写在最前面

如今机器学习和深度学习如此火热,相信很多像我一样的普通程序猿或者还在大学校园中的同学,一定也想参与其中。不管是出于好奇,还是自身充电,跟上潮流,我觉得都值得试一试。对于自己,经历了一段时间的系统学习(参考[《机器学习/深度学习入门资料汇总》](https://link.zhihu.com/?target=https%3A//link.jianshu.com/%3Ft%3Dhttps%253A%252F%252Fcaiquanliu.github.io%252F2017%252F11%252F12%252F%2525E6%25259C%2525BA%2525E5%25

更新时间:2023-06-14 03:02

番外篇(1)——最速下降法

番外篇正式开始,我们主要利用番外篇的时间聊一些机器学习中的黑盒部分——没错,就是优化算法。之前接受过前辈的教诲,一个机器学习的套路可以分解成三个部分——模型,目标和优化方法。模型用来定义待解决的问题,目标(一般也会被称作损失函数)用来明确评价模型质量的方法,而优化算法则是具体解决求解过程的问题。有了这三个部分,我们可以说在学术的角度上我们基本上就搞定了一个机器学习问题。之所以在前面加上了学术这两个字,是因为在工业界一个机器学习的问题就不止这三部了。

好了回到正题,我们回到前面的三个部分,一般来说第一部分是最灵活的,第二部分也算灵活,但还是有一定的约束的,然而第三部分——一般来说都是非常确定的

更新时间:2023-06-14 03:02

分类模型评估

https://bigquant.com/experimentshare/1660319553994a9282db074e02e51f9f

\

更新时间:2023-06-14 03:02

再看Boosting和GBM

这几天重新梳理了一边GBM,看了很多篇经典论文,又看了xgboost相关的东西,总结分享一下,更好的观看体验点击这里。

![](data:image/svg+xml;utf8,<svg%20xmln

更新时间:2023-06-14 03:02

因子加权过程中的大类权重控制-东方证券-20200804

研究结论

传统的基于大类因子的因子加权方法可以抽象成简单的神经网络,指定损失函数后可以以一个时间截面数据作为批量通过基于梯度的优化算法学习大类因子内部的权重和大类间的权重

在一定的情形下,最小化预测收益率和实际收益率的均方误差等价于最大化ZSCORE的IC,基于均方误差学习参数相当于找到一组参数使得模型ZSCORE过去一段时间的平均IC最高。

如果不考虑大类因子的标准化层,基于大类的线性网络和简单线性网络等价,但之所以依然采用大类网络在于这种设计下更便于我们实践中对各个大类因子进行直接或者间接的干预

我们尝试了对量价总个大类的权重进行适当的控制,发现在对大类因子进行适当程度的干预

更新时间:2023-06-01 14:28

分页第1页第2页