你好
更新时间:2023-02-10 06:37
更新时间:2023-02-06 11:05
自然语言处理(NLP)是人工智能的一个重要分支,旨在使计算机系统能够理解和生成人类语言。随着计算机科学和人工智能技术的发展,NLP也在不断演进。从最初的简单的语法分析和词汇识别,到现在的复杂的语义理解和生成技术,NLP在过去的几十年里取得了巨大的进展。
近年来,预测模型在NLP领域取得了显著的进展。这种模型通过学习大量语言数据,建立了一个预测模型,可以预测文本的下一个字符或单词。通过不断学习新的语言数据,这种模型可以不断提高其生成质量和准确性。
GPT(Generative Pretrained Transforme
更新时间:2023-02-03 21:42
用ChatGPT生成的ChatGPT教程
更新时间:2023-02-03 21:30
请问平台支持类似 问财 的自然语言 条件利用吗?
如果内容逻辑全部用语句或自编逻辑来搭建,效率比较低和难懂。可以支持 自然语言 吗?
更新时间:2022-12-20 14:20
模型板块包含了AI算法模型,多因子模型等一些研究内容。
更新时间:2022-12-06 14:42
\
更新时间:2022-11-03 08:32
文本情感分析,也称为意见挖掘,是指用自然语言处理、文本挖掘以及计算机语言学等方法来识别和提取原素材中的主观信息。本文基于文本舆情构建股市情绪指标。数据来源近1年某xx股吧正文及评论,进行数据清理后使用计算机语言进行分词,利用数据可视化将分词结果以字云的形式展示。根据字云图和字频整理确定情绪词汇词典,将情绪表达相对强烈的词设置高分数,相对温和的情绪词设置为低分数。分别计算出文本积极的和消极的情绪分数,最后加和形成总的情绪分数指标。
自2020年3月18日到2021年3月28日的样本期,情绪指标总分大于0(即积极分数>消极分数)出现的总频率为74%,说明这
更新时间:2022-10-24 11:09
2022世界人工智能大会于2022年9月1日至3日在上海举办。世界人工智能大会自2018年以来,已成功举办四届。2022世界人工智能大会由国家发展和改革委员会、科学技术部、工业和信息化部、国家互联网信息办公室、中国科学院、中国工程院和上海市人民政府共同主办。
作为本届世界人工智能大会承办单位之一,数库科技于9月3日下午举办以“数无疆·智无界”主题分论坛,J.P. Morgan亚太地区量化策略负责人Robert Smith先生发表了题为*《Big Data and AI Strategies:AI for Investing》*的主题演讲,Robert Smith分别
更新时间:2022-09-19 03:58
更新时间:2022-08-31 09:37
更新时间:2022-08-31 08:06
互联网大数据与量化投资身处大数据时代,我们所面对的数据的维度在不断增加。传统的量化投资模型基于财务报表及市场价量信息构建因子,信息来源相似性较高导致模型趋同、交易拥堵。在互联网中,非传统金融数据(如舆情、搜索量、语文文本)不断积累,这其中就包括许多对投资有用的信息。
互联网舆情数据可预测性分析相较于传统的金融数据,互联网舆情数据可以及时地描述投资者的情绪面。众多数据源中,舆情搜索指数反映了众多投资者对某类信息的关注情况,本文将众多投资者对大小盘的舆情搜索情绪作为投资者情绪的直接代理变量,以此来研究大小盘风格轮动与舆情变化的强弱之间的关系。投资者情绪随着大小盘风格的变化而波动,同
更新时间:2022-08-31 07:24
更新时间:2022-05-22 01:17
\
更新时间:2022-05-17 02:56
更新时间:2022-04-11 11:00
原研报标题:Generative Adversarial Nets
发布时间:2018年
作者:Ian J. Goodfellow∗, Jean Pouget-Abadie† , Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair‡ , Aaron Courville, Yoshua Bengio
本文通过对抗过程,提出了一种新的框架
更新时间:2021-11-30 03:08
原研报标题:Transformer: Attention is all you need
发布时间:2017年
作者:Ashish Vaswani、 Noam Shazeer、 Niki Parma 、Jakob Uszkoreit、 Llion Jones 、Aidan N. Gomez、 Łukasz Kaiser
主流的序列转换模型都是基于复杂的循环神经网络或卷积神经网络,且都包含一个enc
更新时间:2021-11-30 03:07
原研报标题:<BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding>
发布时间:2018年
作者:Jacob Devlin Ming-Wei Chang Kenton Lee Kristina Toutanova
我们引入了一种名为BERT的语言表示模型,它代
更新时间:2021-11-30 03:07
主题:The Impact of AI to Global Asset Managers: The Responses and Adoptions
演讲人:关子敬 先生 Kevin Kwan 彭博亚太区量化及数据科学专家
谢谢Big Quant的邀请,今天所有策略的绩效仅作交流的用途展示概念,投资人如果对策略本身有兴趣的话,请在我们网站下载白皮书或是与我们的客户经理联系。
更新时间:2021-09-29 03:51
作者:Mybridge
翻译:BigQuant
我们比较了2017年全年近2万篇关于机器学习应用的文章,并且从中挑选出50篇最有价值的文章分享给大家。
“在硅谷,招聘一名机器学习工程师或数据科学家正在变得像招聘一名职业运动员一样。 这就是对他的要求”——[纽约时报](https://www.nytimes.com/2017/10/22/technology/artificial-in
更新时间:2021-08-24 05:46
《Attention Is All You Need》是一篇Google提出的将Attention思想发挥到极致的论文。这篇论文中提出一个全新的模型,叫 Transformer,抛弃了以往深度学习任务里面使用到的 CNN 和 RNN ,来做机器翻译的任务。Bert就是基于Transformer构建的,这个模型广泛应用于NLP领域,例如机器翻译,问答系统,文本摘要和语音识别等等方向。本文根据论文[《Attention Is All You Need》](https://arxiv.org/abs/1
更新时间:2021-04-23 08:06
当前应用于NLP领域的Transformer,结构过于庞大,并不适用于股票数据(开盘价,收盘价,最高价,最低价,等)这样的时序数据,因此,本文提出一种简化的适用于股票数据的Transformer结构,其根据时间嵌入的思想构建,能很好的应用于量化选股中。下面以一个例子来介绍用于股票数据的Transformer体系结构,以及
更新时间:2021-02-03 07:05