我们知道卷积神经网络(convnet)在计算机视觉问题上表现出色,原因在于它能够进行卷积运算,从局部输入图块中提取特征,并能够将表示模块化,同时可以高效地利用数据。这些性质让卷积神经网络在计算机视觉领域表现优异,同样也让它对序列处理特别有效。时间可以被看作一个空间维度,就像二维图像的高度或宽度。
对于某些序列处理问题,比如金融时间序列数据,这种一维卷积神经网络的效果可以媲美RNN[循环神经网络],而且计算代价通常要小很多。最近,一维卷积神经网络[通常与空洞卷积核(dilated kernel)一起使用]已经在音频生成和机器翻译领域取得了巨大成功。除了这
更新时间:2024-05-20 02:09
Update At 2017年6月23日
本文作者: HackCV
\
卷积神经网络(ConvNets 或者 CNNs)属于神经网络的范畴,已经在诸如图像识别和分类的领域证明了其高效的能力。卷积神经网络可以成功识别人脸、物体和交通信号,从而为机器人和自动驾驶汽车提供视力。
在上图中,卷积神经网络可以
更新时间:2024-05-20 02:09
在MNIST上只有91%正确率,实在太糟糕。在这个小节里,我们用一个稍微复杂的模型:卷积神经网络来改善效果。这会达到大概99.2%的准确率。虽然不是最高,但是还是比较让人满意。
卷积层(Convolutional layer),卷积神经网路中每层卷积层由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法优化得到的。卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的网络能从低级特征中迭代提取更复杂的特征。
线性整流层(Rectified Linea
更新时间:2024-05-20 02:09
本文将带你遍历机器学习领域最受欢迎的算法。系统地了解这些算法有助于进一步掌握机器学习。当然,本文收录的算法并不完全,分类的方式也不唯一。不过,看完这篇文章后,下次再有算法提起,你想不起它长处和用处的可能性就很低了。本文还附有两张算法思维导图供学习使用。 在本文中,我将提供两种分类机器学习算法的方法。一是根据学习方式分类,二是根据类似的形式或功能分类。这两种方法都很有用,不过,本文将侧重后者,也就是根据类似的形式
更新时间:2024-05-20 02:09
本文内容对应旧版平台与旧版资源,其内容不再适合最新版平台,请查看新版平台的使用说明
新版量化开发IDE(AIStudio):
https://bigquant.com/wiki/doc/aistudio-aiide-NzAjgKapzW
新版模版策略:
https://bigquant.com/wiki/doc/demos-ecdRvuM1TU
新版数据平
更新时间:2024-05-17 10:30
更新时间:2024-05-15 10:35
首先解释一下标题: CNN:卷积神经网络(Convolutional Neural Network), 在图像处理方面有出色表现,不是被川普怒怼的那个新闻网站; 股票涨跌:大家都懂的,呵呵; 股票图片:既然使用CNN,那么如果输入数据是股票某个周期的K线图片就太好了。当然,本文中使用的图片并不是在看盘软件上一张一张截下来的,而是利用OHLC数据“画”出来的; 尝试:这个词委婉一点说就是“一个很好的想法^_^",比较直白的说法是“没啥效果T_T”。
进入正题: 首先是画出图片。本文目前是仿照柱线图画的。 ![{w:100}](/wi
更新时间:2023-11-28 10:03
请问如何搭建简单的resnet
就给我展示最小单元好了
更新时间:2023-10-09 08:20
12月7日,BigQuant发布年度重磅报告(https://bigquant.com/wiki/doc/niandu-zhongbang-bao-DeepAlphaCNN-juanji-shenjingwangluo-qXe3iEgfRI),发布了Deep Alpha-CNN模型,该模型采用7层一维卷积神经网络,并引入残差,降低模型复杂度,防止梯度爆炸/消失,达到更好收敛。
1、7层的卷积神经网络表现好于2层,能够学习到更多的市场特征。
2、研究发现当kernel size、batch size、feature map等参数越小,模型表现
更新时间:2023-06-29 08:42
在七月份对传统机器学习方法的总览学习之后,我这半个月都在学习如何使用TensorFlow框架进行深度学习,最近进行了一个小的项目——验证码识别,期间踩了不少坑,不得不说TensorFlow算是我用过的较难的框架了,在这里进行总结,和大家分享。
使用卷积神经网络处理图片前,一般要先进行一些图片处理,将它归一化,例如图像的大小、色调等,可以使用PIL库。
from PIL import Image
img = Image.
更新时间:2023-06-14 03:02
一直想对tensorflow的slim做更深入的了解,于是就有了这篇文章,一是为了做笔记,二是为大家理解slim提供帮助。不过由于时间有限,此文章会慢慢更新,估计持续一周才能完成。另外,我是一名学习者,所以文章中难免有不正确的地方,希望大家多多包涵并请不吝指正。注:阅读这篇文章估计要花三个小时,所以分成两篇,建议边看英文边看我的解读
TF-Slim is a lightweight library for defining, training and evaluating complex models in TensorFlow. Compon
更新时间:2023-06-14 03:02
神经网络是一门重要的机器学习技术。它是目前最为火热的研究方向--深度学习的基础。学习神经网络不仅可以让你掌握一门强大的机器学习方法,同时也可以更好地帮助你理解深度学习技术。
本文以一种简单的,循序的方式讲解神经网络。适合对神经网络了解不多的同学。本文对阅读没有一定的前提要求,但是懂一些机器学习基础会更好地帮助理解本文。
神经网络是一种模拟人脑的神经网络以期能够实现类人工智能的机器学习技术。人脑中的神经网络是一个非常复杂的组织。成人的大脑中估计有1000亿个神经元之多。
![图1 人脑神经网络](/wiki/api/attachments.redirect?id=c4bd3664-94c
更新时间:2023-06-14 03:02
各位看官老爷们
( ̄▽ ̄)/
这里是波波给大家带来的CNN卷积神经网络入门讲解
不定期我将给大家带来绝对原创,脑洞大开,幽默风趣的深度学习知识点入门讲解
麻烦大家给我点个赞,就是那种让我看起来,写的还不错的样子!
拜托了!!o(´^`)o
希望大家多多支持,多多关注
微信公众号:follow_bobo
啦啦啦(~ ̄▽ ̄)~
新年好
好久不见啊
想我吗
我们前面说了卷积层,再到下采样层
根据网络结构
我们应该又进入到卷积层
不
我不去
学业繁忙
告辞!
![](/community/uploads/default/original/3X/f
更新时间:2023-06-14 03:02
在前面的斗图篇我们提过这篇文章《Visualizing and understanding convolutional networks》,这是一片介绍反卷积和可视化的文章,今天我们就来详细看看这篇文章的一个开源实现——来自GitHub - piergiaj/caffe-deconvnet: A deconvolutional network in caffe。
首先我们给出上面这篇论文的网络结构架构:
![](/communit
更新时间:2023-06-14 03:02
上一次我们讲到哪了
嗯,对了,讲到卷积输出了,输出的特征图(feature map)到了采样(pooling,有些也叫subsample)层手上,
采样层实际上就是一个特征选择的过程
假设我们用边缘滤波器去卷积输入图片,得到的特征值矩阵如下:
![](data:image/svg+xml;utf8,<svg%20xmlns='[http://www.w3.org/2000/svg' width=
更新时间:2023-06-14 03:02
文章居然超长了,接上篇
Fully convolutional networks
Each layer of data in a convnet is a three-dimensional array of size h × w × d, where h and w are spatial dimensions, and d is the feature or channel dimension. The first layer is the image, with pixel size h × w, and d color channels. Locations in hi
更新时间:2023-06-14 03:02
在上一篇文章,我们介绍了CNN的一些基本概念和lenet神经网络的架构,今天这一篇文章我们就模仿lenet网络去微调,使其符合mnist数据集的要求,并且达到我们练手的目的.
因为mnist的数据集的图片大小为28*28*1的灰度图片,而lenet神经网络是32*32*1的输入,因此我们将其微调,结构如下:
1:输入层:输入层为28*28*1的灰度图片,单通道输入,如果后续有小伙伴想实现彩色图像的识别,这里可以改变下通道的数量(通常为3,R
更新时间:2023-06-14 03:02
这一篇文章主要是记录下自己阅读《Convolutional Neural Networks for Sentence Classification》这篇文章思路的一个整理。这篇文章也可以算是CNN用于文本分类的开山之作了,尽管第一个使用CNN进行文本分类的不是Yoon Kim,但是Kim在这篇文章里提出来不少的方法,并且调参的过程也很详细,这些是我们应该学习的。
1:Introduction
这部分主要还是讲了讲前人使用CNN的一些工作,这部分暂且不提,主要思考的一个问题是为什么选用CNN,在这里论文里也没有详细讲,我写写我的想法,如果不对,欢迎指教。
我们传统的分类器比如朴素贝
更新时间:2023-06-14 03:02
CNN用“共享参数”的卷积操作不断挤压数据的空间维度,同时增加深度,所谓卷积,就像将一张水平面积很大但很薄的饼,最终卷成水平面积很小但很厚(很深)的卷饼,卷积也因此得名。
CNN的每层可能捕获对象抽象层次中的不同级别。第一层是抽象层次的最底级,一般识别简单的形状,例如水平、竖直的直线,简单的色块。下一层将会上升到更高的抽象层次,识别更复杂的概念,例如形状的组合(眼睛,鼻子),以此类推直至最终识别整个物体,例如狗。
CNN 是自主学习。我们不需要告诉 CNN 去寻找任
更新时间:2023-06-14 03:02
url:https://arxiv.org/pdf/1703.01513
这篇文章讲述了如何有传统的遗传算法,生成卷积神经网络,传统的遗传算法可以帮助我们调整参数调,这里我们把网络参数化,通过遗传算法调整我们的DNA序列,然后生成不同的网络结构。好探索我们的网络结构是否可以达到像我们人工设计的网络一样具有高效的泛化能力和识别能力。这样我们。可以通过自动生成网络来设计
更新时间:2023-06-14 03:02
注:本系列乃是脑洞产物,是“自底向上”地解释CNN。我想解剖卷积神经网络中每个权重的意义之所在,深入洞察每个卷积核,每个池化层,每个全连接层的全部参数的意义在哪里?预计系列分3篇:颜色->纹理->形状。由于CNN的不可解释性实在是厉害(看到后面你会懂的),系列随时有可能停写,请注意。再加上卷积网络的复杂性,我只能尽可能解释最简单的网络内部,与实际可能有出入,请见谅。
现如今,卷积神经网络已经变得如此的复杂,以至于用于图片分类任务的CNN可以轻易达到百亿个参数以上。这些参数相互作用,其过程无比复杂,难以理解,以至于整个网络成为了一个黑箱子。所幸的是,CNN在运作的
更新时间:2023-06-14 03:02
*CVer推荐来源: [SigAI](https://link.zhihu.com/?target=https%3A//mp.weixin.qq.com/s%3F__biz%3DMzU4MjQ3MDkwNA%3D%3D%26mid%3D2247483731%26idx%3D1%26sn%3D237c52bc9ddfe65779b73ef8b5507f3c%26chksm%3Dfdb69cc4cac115d2ca505e0deb975960a792a0106a5314ffe3052f8e02a75c9fef458fd3aca2%26mpshare%3D1%26scene%3D21%26src
更新时间:2023-06-14 03:02
卷积基本概念
首先,我们首先回顾一下卷积相关的基本概念,定义一个卷积层需要的几个参数。
2维卷积使用卷积核大小为3,步长为1和Padding
卷积核大小(Kernel Size):卷积核大小定义了卷积的视野。2维中的常见选择是3 - 即3x3像素矩阵。
步长(Stride):步长定义遍历图像时卷积核的移动的步长。虽然它的默认值通常为1,但我们可以使用值为2的步长来对类似于MaxPooling的图
更新时间:2023-06-14 03:02
\
更新时间:2023-06-14 03:02
深度学习量化交易策略是从海量历史数据中利用统计原理通过数据挖掘和逻辑验证的方式发掘出超额收益来源。相比于传统的线性模型,深度学习模型的表示能力更强,能够学习的特征更多。本文以卷积神经网络为例,介绍深度学习模型在量化择时模型中的应用。
卷积神经网络是一种常用的机器学习模型,相比于传统的全连接神经网络,卷积神经网络通过卷积层和池化层的结构,使得输出的感受野更宽,同时卷积核的权值是共享的,从而有效减少参数数量,卷积神经网络通过卷积层、池化层、全连接层不同块的组合结构设计,使
更新时间:2023-06-13 06:53