风险评估

从金融角度看,风险评估是决策的基石。它通过深入分析潜在的不利因素和可能发生的不良后果,帮助投资者、企业和金融机构量化和管理风险。在复杂多变的金融市场中,风险评估能够识别资产、负债及市场变动的潜在威胁,并提供对冲这些威胁的方法或采取有效缓释的策略。借助先进的风险模型和工具,可以更精准地评估各种风险,如信用风险、市场风险、操作风险等,并为投资者提供清晰的风险收益视图,以支持其作出更加明智的投资决策。在当今金融全球化的背景下,准确、及时的风险评估不仅能够提高个体的风险抵御能力,还能为整个金融系统的稳定做出贡献。

商务团队

工作汇报,数据统计分析,管理能力

更新时间:2023-06-01 11:11

如何使用自己的数据运行

https://bigquant.com/experimentshare/657440e6921f4a32833dad80017fb83e

\

更新时间:2023-06-01 02:13

请教一个问题!,关于ranker_prediction

问题

大家好,我看很多关于AI的策略里面都有以下两句代码

ranker_prediction 和 context.benckmark_risk.ix[today_date].values[0]。我想请问这个内嵌的逻辑是什么…

  • context.ranker_prediction就是传给回测模块的预测结果数据,通过context.options[‘data’].read_df()读出来。 ranker_prediction就获取到回测当天的预测结果数据

![{w:100}{w:100}{w:100}{w:100}{w:100}](/wiki/api

更新时间:2023-06-01 02:13

BigQuant的ChatGPT怎么使用?



\

更新时间:2023-05-04 02:23

数据文档


\

更新时间:2023-03-20 07:39

帮我写篇交易策略


\

更新时间:2023-03-20 05:38

购买麦克风方案


\

更新时间:2023-02-16 10:30

DEBUG-1

如何写好一份PPT ?


\

更新时间:2023-02-16 03:24

帮我写一篇作文欢乐过兔年

%%BigQuant_ChatGPT

如何使用ChatGPT,可以用来做什么?

\

更新时间:2023-02-10 06:38

如何推八字

如何推八字

更新时间:2023-02-07 10:55

使用 ChatGPT 生成旅行建议

使用ChatGPT生成旅行建议


https://bigquant.com/experimentshare/7f045b5d839e4d5b8e36c768f64f4d6d


\

更新时间:2023-02-06 11:05

这个错误怎么改?

{w:100}

\

更新时间:2022-11-25 10:18

筹码理论的探索-筹码分布计算的实现

https://bigquant.com/experimentshare/a4e89b23c2de4c56b6534136169d13c1

\

更新时间:2022-11-20 03:34

合成生物学-未来已来,开启“造物”时代-天风-20220109

摘要

合成生物学为何值得关注?

合成生物学对于全球可持续发展至关重要:合成生物学按照特定目标理性设计、改造乃至从头重新合成生物体系,用以解决人类食品缺乏、能源紧缺、环境污染、医疗健康等各方面的问题,对于全球可持续发展至关重要,根据CBInsights分析数据显示,预计到2024年合成生物学市场规模将达189亿美元,2019-2024年复合增长率达28.8%。

合成生物制造过程兼具绿色环保与降本增效优势:生物技术的应用可以降低工业过程能耗15-80%,原料消耗35%-75%,减少空气污染50%-90%,水污染33%-80%。据世界自然基金会(WWF)预估,到2030年工业

更新时间:2022-10-09 11:02

利率债收益预测框架——大类资产定价系列之二

20200514-国盛证券-量化专题报告:利率债收益预测框架——大类资产定价


/wiki/static/upload/63/632174fd-6d0d-47e1-a63e-cb2799d0406f.pdf

\

更新时间:2022-08-31 06:09

因子跟踪(周/月报)


\

更新时间:2022-08-31 01:47

如何计算百日新高

https://bigquant.com/experimentshare/46cf815bdc7f4158a22aa05ccb45c98a

\

更新时间:2022-08-17 05:15

xgboost自定义目标和评估函数

https://bigquant.com/experimentshare/648ff204e53d44059c2d726e9219cfa3

\

更新时间:2022-04-21 06:21

使用表达式引擎进行因子分析demo

https://bigquant.com/experimentshare/7ef4687a8cff48c3a1e5960a493dc1e7

\

更新时间:2022-02-21 09:48

行业动态分析-元宇宙2022蓄积的力量-安信

摘要

怎样正确地看待元宇宙这一新事物?

客观来说,元宇宙同时兼具进步性与退步性,其进步性在于人的感官体验维度增加,退步的地方在于便携性与性价比,只有当进步性远超退步性的时候,元宇宙才能发展顺遂。

为什么不管多难也要发展元宇宙?

互联网陷入了内卷化的负向循环,不同形态的内容,其分发、商业化的逻辑走向高度一致,在内容载体、用户体验、传播、场景、交互等方面都进入瓶颈期;当前的互联网已经不能称之为先进生产力,互联网的内容形态对用户的吸引力明显下挫,剧本杀、盲盒等成为争夺用户时长与可支配收入的强势对手盘;元宇宙增加用户体验的维度,孕育出的新内容形态有望具备“碾压式”的

更新时间:2022-01-12 02:36

通过属性驱动图注意力网络为股票预测建模动量溢出效应

论文原名

Modeling the Momentum Spillover Effect for Stock Prediction via Attribute-Driven Graph Attention Networks

论文作者

Rui Cheng, Qing Li

引言

在金融领域,上市公司的动量溢出效应是公认的。只有少数研究预测了一家公司在其相关公司方面的趋势。试点工作的一个常见策略是采用具有一些预定义牢固关系的图卷积网络 (GCN)。然而,动量溢出是通过各种公司关系传播的,其中的桥梁重要性随时间而变化。限制几个预定义的关系不可避免地会产生噪音,从而误导股票预

更新时间:2021-12-28 02:47

跟着李沐学AI—AlexNet论文精读 【含研报及视频】

研报标题:ImageNet Classification with Deep Convolutional Neural Networks

研报作者:Alex Krizhevsky、Ilya Sutskever 、Geoffrey E. Hinton

简介

CNN 领域的经典之作, 作者训练了一个面向数量为 1.2 百万的高分辨率的图像数据集ImageNet, 图像的种类为1000 种的深度卷积神经网络。并在图像识别的benchmark数据集上取得了卓越的成绩。

和之间的LeNet还是有着异曲同工之妙。这里涉及到 category 种类多的因素,该网络考虑了多通道卷积操作, 卷积操

更新时间:2021-11-30 03:06

【精品】全网人工智能机器学习免费资源汇总清单

作者:Robbie Allen
编译:BigQuant

早在21世纪初,我在编写关于网络和编程的书的时候,我就发现,互联网是一个很好的资源,但是它还不完善。 那时,博客已开始流行。但是YouTube还不是很普遍,同样Quora,Twitter和播客用户也很少。十年过后,我一直在潜心钻研人工智能和机器学习,局面发生了翻天覆地的变化。互联网上现在有非常丰富的资源——当你要寻找选择你想要的资源时,你很难抉择你应该从哪里开始(和停止)!

![微信图片_20180306160704|690x277](/community/uploads/default/original/2X/5/

更新时间:2021-11-11 07:27

回归、分类模型构建

导语

回归、分类和排序是我们经常遇到的问题场景。本文主要介绍如何实现回归和分类两类问题的模型构建。

首先我们明确一下算法在机器学习中的地位。一般来说,机器学习有三个要素: 数据、算法和模型

  • 数据 是场景的描述,包括输入和输出。
  • 算法 是得到模型的过程,狭义上说,特指机器学习算法,如传统线性回归、树和支持向量机以及深度学习; 广义上说,从输入数据到最终确定模型输出的所有过程,即建模流程都可以看作算法,如分类、回归模型,搜索最优参数算法。

下面我们来举两个例子,看看回归和分类问题的应用场景有什么不同。

回归模型

![](/wik

更新时间:2021-07-30 08:22

Transformer文献综述

一、背景介绍

  《Attention Is All You Need》是一篇Google提出的将Attention思想发挥到极致的论文。这篇论文中提出一个全新的模型,叫 Transformer,抛弃了以往深度学习任务里面使用到的 CNN 和 RNN ,来做机器翻译的任务。Bert就是基于Transformer构建的,这个模型广泛应用于NLP领域,例如机器翻译,问答系统,文本摘要和语音识别等等方向。本文根据论文[《Attention Is All You Need》](https://arxiv.org/abs/1

更新时间:2021-04-23 08:06

分页第1页第2页
{link}