如何直观解释卷积神经网络的工作原理

作者&投稿:游购 (若有异议请与网页底部的电邮联系)
如何更好的理解分析深度卷积神经网络~

作者:杨延生
链接:
来源:知乎
著作权归作者所有,转载请联系作者获得授权。

"深度学习"是为了让层数较多的多层神经网络可以训练,能够work而演化出来的一系列的 新的结构和新的方法。

新的网络结构中最著名的就是CNN,它解决了传统较深的网络参数太多,很难训练的问题,使用了逗局部感受野地和逗权植共享地的概念,大大减少了网络参数的数量。关键是这种结构确实很符合视觉类任务在人脑上的工作原理。
新的结构还包括了:LSTM,ResNet等。

新的方法就多了:新的激活函数:ReLU,新的权重初始化方法(逐层初始化,XAVIER等),新的损失函数,新的防止过拟合方法(Dropout, BN等)。这些方面主要都是为了解决传统的多层神经网络的一些不足:梯度消失,过拟合等。

---------------------- 下面是原答案 ------------------------

从广义上说深度学习的网络结构也是多层神经网络的一种。

传统意义上的多层神经网络是只有输入层、隐藏层、输出层。其中隐藏层的层数根据需要而定,没有明确的理论推导来说明到底多少层合适。
而深度学习中最著名的卷积神经网络CNN,在原来多层神经网络的基础上,加入了特征学习部分,这部分是模仿人脑对信号处理上的分级的。具体操作就是在原来的全连接的层前面加入了部分连接的卷积层与降维层,而且加入的是一个层级。
输入层 - 卷积层 -降维层 -卷积层 - 降维层 -- .... -- 隐藏层 -输出层
简单来说,原来多层神经网络做的步骤是:特征映射到值。特征是人工挑选。
深度学习做的步骤是 信号->特征->值。 特征是由网络自己选择。

对卷积的意义的理解:
从“积”的过程可以看到,我们得到的叠加值,是个全局的概念。以信号分析为例,卷积的结果是不仅跟当前时刻输入信号的响应值有关,也跟过去所有时刻输入信号的响应都有关系,考虑了对过去的所有输入的效果的累积。在图像处理的中,卷积处理的结果,其实就是把每个像素周边的,甚至是整个图像的像素都考虑进来,对当前像素进行某种加权处理。所以说,“积”是全局概念,或者说是一种“混合”,把两个函数在时间或者空间上进行混合。

那为什么要进行“卷”?直接相乘不好吗?我的理解,进行“卷”(翻转)的目的其实是施加一种约束,它指定了在“积”的时候以什么为参照。在信号分析的场景,它指定了在哪个特定时间点的前后进行“积”,在空间分析的场景,它指定了在哪个位置的周边进行累积处理。

例1:信号分析
如下图所示,输入信号是 f(t) ,是随时间变化的。系统响应函数是 g(t) ,图中的响应函数是随时间指数下降的,它的物理意义是说:如果在 t=0 的时刻有一个输入,那么随着时间的流逝,这个输入将不断衰减。换言之,到了 t=T时刻,原来在 t=0 时刻的输入f(0)的值将衰减为f(0)g(T)。


rbf神经网络即径向基函数神经网络(Radical Basis Function)。径向基函数神经网络是一种高效的前馈式神经网络,它具有其他前向网络所不具有的最佳逼近性能和全局最优特性,并且结构简单,训练速度快。同时,它也是一种可以广泛应用于模式识别、非线性函数逼近等领域的神经网络模型。




图片放大:这几4个无损放大工具很好用!
来自海外的Upscale Pics,采用前沿的卷积神经网络技术,不仅能锐化图像,还能精确放大而不失真。虽然最大支持8倍放大,但其输出格式多样且压缩效果出色,尽管速度略慢,但呈现的图像质量绝对值得等待。以上四款工具,如同摄影的魔法棒,让照片的每个角落都焕发新生。选择它们,让你的照片无论在何种场合都能展...

邗江区15843163314: 如何更好的理解分析深度卷积神经网络 -
敛鲍曼月: 用局部连接而不是全连接,同时权值共享.局部连接的概念参考局部感受域,即某个视神经元仅考虑某一个小区域的视觉输入,因此相比普通神经网络的全连接层(下一层的某一个神经元需要与前一层的所有节点连接),卷积网络的某一个卷积...

邗江区15843163314: 假设面试官什么都不懂,详细解释cnn的原理 -
敛鲍曼月: 卷积神经网络是近年发展起来,并引起广泛重视的一种高效识别方法.20世纪60年代,Hubel和Wiesel在研究猫脑皮层中用于局部敏感和方向选择的神经元时发现其独特的网络结构可以有效地降低反馈神经网络的复杂性,继而提出了卷积神经网...

邗江区15843163314: 如何理解卷积神经网络中的卷积 -
敛鲍曼月: 简单谈谈自己的理解吧. 池化:把很多数据用最大值或者平均值代替.目的是降低数据量. 卷积:把数据通过一个卷积核变化成特征,便于后面的分离.计算方式与信号系统中的相同.

邗江区15843163314: 如何理解深度学习中的卷积 -
敛鲍曼月: 深度学习的概念源于人工神经网络的研究.含多隐层的多层感知器就是一种深度学习结构.深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示.多层神经网络是指单计算层感知器只能解决线性...

邗江区15843163314: 层有什么用处,以及是如何实现的 -
敛鲍曼月: 1.卷积神经网络简介 卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现.[1] 它包括卷积层(alternating convolutional layer)和池...

邗江区15843163314: 卷积神经网络具体怎样训练 -
敛鲍曼月: 卷积神经网络有以下几种应用可供研究: 1、基于卷积网络的形状识别 物体的形状是人的视觉系统分析和识别物体的基础,几何形状是物体的本质特征的表现,并具有平移、缩放和旋转不变等特点,所以在模式识别领域,对于形状的分析和识别...

邗江区15843163314: Alphago属于人工智能应用领域中的() a计算机博弈 b专家系统 c模式识别 d机器翻译 -
敛鲍曼月: Alphago属于人工智能应用领域中的计算机博弈. 阿尔法围棋(AlphaGo)是第一个击败人类职业围棋选手、第一个战胜围棋世界冠军的人工智能机器人,由谷歌(Google)旗下DeepMind公司戴密斯·哈萨比斯领衔的团队开发.其主要工作原...

邗江区15843163314: 卷积神经网络中的池化是什么意思 -
敛鲍曼月: pooling 理论在于,图像中相邻位置的像素是相关的.对一幅图像每隔一行采样,得到的结果依然能看. 经过一层卷积以后,输入的图像尺寸变化不大,只是缩小了卷积核-1.根据相邻数据的相关性,在每个nxn区域内,一般2x2,用一个数代表原来的4个数,这样能把数据缩小4倍,同时又不会损失太多信息. 一副24*24的图像.用5*5卷积核卷积,结果是20*20(四周各-2),经过2*2池化,变成10*10.

本站内容来自于网友发表,不代表本站立场,仅表示其个人看法,不对其真实性、正确性、有效性作任何的担保
相关事宜请发邮件给我们
© 星空见康网