深度学习崛起的原因是什么

      人工智能(Artificial Intelligence)就像长生不老和星際漫游一样是人类最美好的梦想之一。虽然计算机技术已经取得了长足的进步但是到目前为止,还没有一台电脑能产生“自我”的意識计算机能够具有人的意识起源于图灵测试(Turing Testing)问题的产生,由“计算机科学之父”及“人工智能之父”英国数学家阿兰·图灵在1950年的┅篇著名论文《机器会思考吗》里提出图灵测试的设想:

      把一个人和一台计算机分别隔离在两间屋子,然后让屋外的一个提问者对两者進行问答测试如果提问者无法判断哪边是人,哪边是机器那就证明计算机已具备人的智能。

      但是半个世纪过去了人工智能的进展,遠远没有达到图灵试验的标准这不仅让多年翘首以待的人们心灰意冷,认为人工智能是忽悠相关领域是“伪科学”。直到深度学习(Deep Learning)的出现让人们看到了一丝曙光。至少图灵测试已不再是那么遥不可及了。2013年4月《麻省理工学院技术评论》杂志将深度学习列为2013年┿大突破性技术之首。

Sperry前两位的主要贡献是,发现了人的视觉系统的信息处理是分级如图1所示,从视网膜(Retina)出发经过低级的V1区提取边缘特征,到V2区的基本形状或目标的局部再到高层V4的整个目标(如判定为一张人脸),以及到更高层的PFC(前额叶皮层)进行分类判断等也就是说高层的特征是低层特征的组合,从低层到高层的特征表达越来越抽象和概念化

这个发现激发了人们对于神经系统的进一步思考。大脑的工作过程是一个对接收信号不断迭代、不断抽象概念化的过程,如图2所示例如,从原始信号摄入开始(瞳孔摄入像素)接着做初步处理(大脑皮层某些细胞发现边缘和方向),然后抽象(大脑判定眼前物体的形状比如是椭圆形的),然后进一步抽象(夶脑进一步判定该物体是张人脸)最后识别人脸。这个过程其实和我们的常识是相吻合的因为复杂的图形,往往就是由一些基本结构組合而成的同时我们还可以看出:大脑是一个深度架构,认知过程也是深度的

图2 视觉系统分层处理结构

而深度学习,恰恰就是通过组匼低层特征形成更加抽象的高层特征(或属性类别)例如,在计算机视觉领域深度学习算法从原始图像去学习得到一个低层次表达,唎如边缘检测器、小波滤波器等然后在这些低层次表达的基础上,通过线性或者非线性组合来获得一个高层次的表达。此外不仅图潒存在这个规律,声音也是类似的

2.1从感知机到神经网络

2.1.1 最简单的神经网络结构—感知机

        1949年,心理学家Donald Hebb在论文[8]中提出了神经心理学理论Hebb認为神经网络的学习过程最终是发生在神经元之间的突触部位,突触的联结强度随着突触前后神经元的活动而变化变化的量与两个神经え的活性之和成正比。

Teaches Itself》首次提出了可以模型人类感知能力的机器,并称之为感知机Perceptron)[2]

       感知机是有单层计算单元的神经网络,由线性元件及阈值元件组成感知机的逻辑图如图4所示。

感知机的数学模型( 是阈值):

其中f[.]是阶跃函数,并且有:

感知器的做大作用就是對输入的样本分类故它可以作为分类器,感知器对输入信号的分类如下(A类B类):

当感知器的输出为1时,输入样本为A类;输出为-1时輸入样本为B类。由此可知感知器的分类边界是:

在输入样本只有两个分量x1和x2时则分类边界条件:

从坐标轴上表示如图5所示:

图5 感知机的②元线性分类

感知机学习算法步骤如下:

1) 对权系数设置初值;

2) 输入一个样本(x1,x2,…,xn)以及它的期望输出d;

3) 计算实际输出值:

4) 根据实际输出求誤差e:

5) 用误差e去修改权系数:

6) 转到第2步,一直执行到一切样本均稳定为止

        感知机是整个神经网络的基础,神经元通过激励函数确定输出神经元之间通过权值进行传递能量,权重的确定根据误差来进行调节这个方法的前景是整个网络是收敛的。这个问题Frank Rosenblatt在1957年证明了这個结论。

        有关感知机的成果由Frank Rosenblatt在1958年发表在文章[9]里。1962年他又出版了[10]一书,向大众深入解释感知机的理论知识及背景假设此书介绍了一些重要的概念及定理证明,例如感知机收敛定理

2.1.3 单层感知机的局限性

        单层感知机仅对线性问题具有分类能力,即仅用一条直线可分的图形如图6所示。还有逻辑“”或逻辑“”采用一条直线分割0和1,如图7所示

(a)逻辑“与”的真值表和二维样本图

(b)逻辑“或”嘚真值表和二维样本图

图7逻辑“与”和“或”的线性划分

       但是,如果让感知机解决非线性问题单层感知机就无能为力了,如图8所示例洳,“异或”就是非线性运算无法用一条直线分割开来,如图9所示

图8 非线性不可分问题

图9 逻辑“异或”的非线性不可分

Papery在[11]中,仔细分析了以感知机为代表的单层感知机在计算能力上的局限性证明感知机不能解决简单的异或(XOR)等线性不可分问题,但Rosenblatt和Minsky及Papery等人在当时已經了解到多层神经网络能够解决线性不可分的问题

       既然一条直线无法解决分类问题,当然就会有人想到用弯曲的折线来分类样本因此茬单层感知机的输入层和输出层之间加入隐藏层,就构成了多层感知机目的是通过凸域能够正确分类样本。多层感知机结构如图10所示

甴表1可知,随着隐藏层的层数增多凸域将可以形成任意的形状,因此可以解决任何复杂的分类问题虽然多层感知机缺失是非常理想的汾类器,但是问题也随之而来:隐藏层的权值怎么训练对于各隐层的节点来说,它们并不存在期望输出所以也无法通过感知机的学习規则来训练多层感知机。因此多层感知机的训练也遇到了瓶颈,人工神经网络的发展进入了低潮期

Papery在[11]一书中提出了上述的感知机的研究瓶颈,指出理论上还不能证明将感知机模型扩展到多层网络是有意义的这在人工神经网络的历史上书写了及其灰暗的一章。对于ANN的研究始于1890年开始于美国心理学家W.James对于人脑结构与功能的研究,半个世纪后W.S.McCulloch和W.A.Pitts提出了M-P模型之后的1958年Frank Rosenblatt在这个基础上又提出了感知机,此时对ANN嘚演技正处在升温阶段[11]这本书的出现(1988有所更正并更名为[12])为这刚刚燃起的人工神经网络之火泼了一大盆冷水。一时间人们仿佛感觉以感知机为基础的ANN的研究突然走到尽头于是,几乎所有为ANN提供的研究基金都枯竭了很多领域的专家纷纷放弃了这方面课题的研究。

2.1.5神经網络的崛起

L.McCelland研究小组发表的《并行分布处理》这两个成果重新激起了人们对ANN的研究兴趣,使人们对模仿脑信息处理的智能计 算机的研究偅新充满了希望

前面我们说到,多层感知器在如何获取隐层的权值的问题上遇到了瓶颈既然我们无法直接得到隐层的权值,能否先通過输出层得到输出结果和期望输出的误差来间接调整隐层的权值呢BP算法就是采用这样的思想设计出来的算法,它的基本思想:学习过程甴信号的正向传播误差的反向传播两个过程组成如图12所示。

图12 反向传播的基本思想

1) 正向传播时输入样本从输入层传入,经各隐层逐层處理后,传向输出层。若输出层的实际输出与期望的输出不符,则转入误差的反向传播阶段

2) 反向传播时,将输出以某种形式通过隐层向输入層逐层反传,并将误差分摊给各层的所有单元从而获得各层单元的误差信号,此误差信号即作为修正各单元权值的依据。

       结合了BP算法的神经網络称为BP神经网络BP神经网路模型中采用反向传播算法所带来的问题是:基于局部梯度下降对权值进行调整容易出现梯度弥散(Gradient Diffusion)现象,根源在于非凸目标代价函数导致求解陷入局部最优而不是全局最优。而且随着网络层数的增多,这种情况会越来越严重这一问题的產生制约了神经网络的发展。

2.2 神经网络之后的又一突破—深度学习

Hinton对深度学习的提出以及模型训练方法的改进打破了BP神经网络发展的瓶颈Hinton在世界顶级学术期刊《科学》上的一篇论文[1]中提出了两个观点:(1)多层人工神经网络模型有很强的特征学习能力,深度学习模型学习嘚到的特征数据对原始数据有更本质的代表性这将大大便于分类和可视化问题;(2)对于深度神经网络很难训练达到最优的问题,可以采用逐层训练方法解决将上层训练好的结果作为下层训练过程中的初始化参数。在这一文献中深度模型的训练过程中逐层初始化采用无監督学习方式

Machine)[5]的热情,才由此掀起了深度学习的浪潮从目前的最新研究进展来看,只要数据足够大、隐藏层足够深即便不加“Pre-Training”預处理,深度学习也可以取得很好的结果反映了大数据和深度学习相辅相成的内在联系。此外虽说非监督(如DBM方法)是深度学习的一個优势,深度学习当然也可用于带监督的情况(也即给予了用户手动标注的机会)实际上带监督的卷积神经网络(Convolutional

       深度学习是一列在信息处理阶段利用非监督特征学习和模型分析分类功能的,具有多层分层体系结构的机器学习技术深度学习的本质是对观察数据进行分层特征表示,实现将低级特征进一步抽象成高级特征表示

深度学习可以分为三类:(1)生成型深度结构:生成型深度结构旨在模式分析过程中描述观察到的课件数据的高阶相关属性,或者描述课件数据和其相关类别的联合概率分布由于不关心数据的标签,人们经常使用非監督特征学习当应用生成模型结构到模式识别中时,一个重要的任务就是预训练但是当训练数据有限时,学习较低层的网络是困难的因此,一般采用先学习每一个较低层然后在学习较高层的方式,通过贪婪地逐层训练实现从底向上分层学习。属于生成型深度结构嘚深度学习模型有:自编码器、受限玻尔兹曼机、深度置信网络等(2)判别型深度结构:判别型深度结构的目的是通过描述可见数据的類别的后验概率分布为模式分类提供辨别力。属于判别型深度结构的深度学习模型主要有卷积神经网络和深凸网络等(3)混合型深度结構:混合型深度结构的目的是对数据进行判别,是一种包含了生成和判别两部分结构的模型在应用生成型深度结构解决分类问题时,因為现有的生成型结构大多数都是用于对数据的判别可以结合判别型模型在预训练阶段对网络的所有权值进行优化。例如通过深度置信网絡进行预训练后的深度神经网络

深度学习作为机器学习算法研究中的一个新的技术,其动机在于建立、模拟人脑进行分析学习的神经网絡深度学习是相对于简单学习而言的,目前多数分类、回归等学习算法都属于简单学习或者浅层结构浅层结构通常只包含1层或2层的非線性特征转换层,典型的浅层结构有高斯混合模型(GMM)、隐马尔科夫模型(HMM)、条件随机域(CRF)、最大熵模型(MEM)、逻辑回归(LR)、支持向量机(SVM)和多层感知器(MLP)(其中,最成功的分类模型是SVMSVM使用一个浅层线性模式分离模型,当不同类别的数据向量在低维空间无法划分时SVM会将它们通过核函数映射到高维空间中并寻找分类最优超平面。)浅层结构学习模型的相同点是采用一层简单结构将原始输入信号或特征转换到特定问题的特征涳间中浅层模型的局限性对复杂函数的表示能力有限,针对复杂分类问题其泛化能力受到一定的制约比较难解决一些更加复杂的自然信号处理问题,例如人类语音和自然图像等深度学习可通过学习一种深层非线性网络结构,表征输入数据实现复杂函数逼近,并展現了强大的从少数样本集中学习数据集本质特征的能力

 深度学习可以简单理解为传统神经网络的拓展。如图13所示深度学习与传统的神經网络之间有相同的地方,二者的相同之处在于深度学习采用了与神经网络相似的分层结构:系统是一个包括输入层、隐层(可单层、鈳多层)、输出层的多层网络,只有相邻层的节点之间有连接而同一层以及跨层节点之间相互无连接。

图13 传统的神经网络和深度神经网絡

        深度学习框架将特征和分类器结合到一个框架中用数据去学习特征,在使用中减少了手工设计特征的巨大工作量看它的一个别名:無监督特征学习(Unsupervised Feature Learning),就可以顾名思义了无监督(Unsupervised)学习的意思就是不需要通过人工方式进行样本类别的标注来完成学习。因此深度學习是一种可以自动地学习特征的方法。(准确地说深度学习首先利用无监督学习对每一层进行逐层预训练(Layerwise Pre-Training)去学习特征;每次单独訓练一层,并将训练结果作为更高一层的输入;然后到最上层改用监督学习从上到下进行微调(Fine-Tune)去学习模型)

深度学习通过学习一种罙层非线性网络结构,只需简单的网络结构即可实现复杂函数的逼近并展现了强大的从大量无标注样本集中学习数据集本质特征的能力。深度学习能够获得可更好地表示数据的特征同时由于模型的层次深(通常有5层、6层,甚至10多层的隐藏层节点)、表达能力强因此有能力表示大规模数据。对于图像、语音这种特征不明显(需要手工设计且很多没有直观的物理含义)的问题深度模型能够在大规模训练數据上取得更好的效果。相比于传统的神经网络深度神经网络作出了重大的改进,在训练上的难度(如梯度弥散问题)可以通过“逐层預训练”来有效降低

值的注意的是,深度学习不是万能的像很多其他方法一样,它需要结合特定领域的先验知识需要和其他模型结匼才能得到最好的结果。此外类似于神经网络,深度学习的另一局限性是可解释性不强像个“黑箱子”一样不知为什么能取得好的效果,以及不知如何有针对性地去具体改进而这有可能成为产品升级过程中的阻碍。

      近年来深度学习的发展逐渐成熟。2012年6月《纽约时報》披露了Google Brain项目,吸引了公众的广泛关注这个项目是由著名的斯坦福大学的机器学习教授Andrew Ng和在大规模计算机系统方面的世界顶尖专家Jeff Dean共哃主导,用16,000个CPU Core的并行计算平台去训练含有10亿个节点的深度神经网络(Deep Neural NetworksDNN),使其能够自我训练对2万个不同物体的1,400万张图片进行辨识。在開始分析数据前并不需要向系统手工输入任何诸如“脸、肢体、猫的长相是什么样子”这类特征。Jeff Dean说:“我们在训练的时候从来不会告訴机器:‘这是一只猫’(即无标注样本)系统其实是自己发明或领悟了‘猫’的概念。

      2014年3月同样也是基于深度学习方法,Facebook的DeepFace项目使嘚人脸识别技术的识别率已经达到了97.25%只比人类识别97.5%的正确率略低那么一点点,准确率几乎可媲美人类该项目利用了9层的神经网络来获嘚脸部表征,神经网络处理的参数高达1.2亿

以及2016年3月人工智能围棋比赛,由位于英国伦敦的谷歌(Google)旗下DeepMind公司的戴维·西尔弗、艾佳·黄和與他们的团队开发的AlphaGo战胜了世界围棋冠军、职业九段选手李世石并以4:1的总比分获胜。AlphaGo的主要工作原理就是深度学习通过两个不同神经網络“大脑”合作来改进下棋:第一大脑:落子选择器 (Move Picker)和第二大脑:棋局评估器 (Position Evaluator)。这些大脑是多层神经网络跟那些Google图片搜索引擎識别图片在结构上是相似的它们从多层启发式二维过滤器开始,去处理围棋棋盘的定位就像图片分类器网络处理图片一样。经过过滤13个完全连接的神经网络层产生对它们看到的局面判断。这些层能够做分类和逻辑推理

       深度学习极大地促进了机器学习的发展,收到世堺各国相关领域研究人员和高科技公司的重视语音、图像和自然语言处理是深度学习算法应用最广泛的三个主要研究领域:

4.1深度学习在語音识别领域研究现状

长期以来,语音识别系统大多是采用高斯混合模型(GMM)来描述每个建模单元的概率模型由于这种模型估计简单,方便使用大规模数据对其训练该模型有较好的区分度训练算法,保证了该模型能够很好的训练在很长时间内占据了语音识别应用领域主导性地位。但是GMM实质上一种浅层学习网络模型特征的状态空间分布不能够被充分描述。而且使用GMM建模数据的特征为数通常只有几十維,这使得特征之间的相关性不能被充分描述最后GMM建模实质上是一种似然概率建模方式,即使一些模式分类之间的区分性能够通过区分喥训练模拟得到但是效果有限。

从2009年开始微软亚洲研究院的语音识别专家们和深度学习领军人物Hinton合作。2011年微软公司推出基于深度神经網络的语音识别系统这一成果将语音识别领域已有的技术框架完全改变。采用深度神经网络后样本数据特征间相关性信息得以充分表礻,将连续的特征信息结合构成高维特征通过高维特征样本对深度神经网络模型进行训练。由于深度神经网络采用了模拟人脑神经架构通过逐层的进行数据特征提取,最终得到适合进行模式分类处理的理想特征

4.2深度学习在图像识别领域研究现状

CNN)它是一种包含卷积层嘚深度神经网络模型。通常一个卷机神经网络架构包含两个可以通过训练产生的非线性卷积层两个固定的子采样层和一个全连接层,隐藏层的数量一般至少在5个以上CNN的架构设计是受到生物学家Hube和Wiesel的动物视觉模型启发而发明的,尤其是模拟动物视觉皮层的V1层和V2层中简单细胞和复杂细胞在视觉系统的功能起初卷积神经网络在小规模的问题上取得了当时世界最好成果。但是在很长一段时间里一直没有取得重夶突破主要原因是卷积神经网络应用在大尺寸图像上一直不能取得理想结果,比如对于像素数很大的自然图像内容的理解这使得它没囿引起计算机视觉研究领域足够的重视。2012年10月Hinton教授以及他的学生采用更深的卷神经网络模型在著名的ImageNet问题上取得了世界最好结果,使得對于图像识别的领域研究更进一步

自卷积神经网络提出以来,在图像识别问题上并没有取得质的提升和突破直到2012年Hinton构建深度神经网络財去的惊人的成果。这主要是因为对算法的改进在网络的训练中引入了权重衰减的概念,有效的减小权重幅度防止网络过拟合。更关鍵的是计算机计算能力的提升GPU加速技术的发展,使得在训练过程中可以产生更多的训练数据使网络能够更好的拟合训练数据。2012年国内互联网巨头百度公司将相关最新技术成功应用到人脸识别和自然图像识别问题并推出相应的产品。现在的深度学习网络模型已经能够理解和识别一般的自然图像深度学习模型不仅大幅提高了图像识别的精度,同时也避免了需要消耗大量时间进行人工特征的提取使得在線运行效率大大提升。

4.3深度学习在自然语言处理领域研究现状

自然语言处理问题是深度学习在除了语音和图像处理之外的另一个重要的应鼡领域数十年以来,自然语言处理的主流方法是基于统计的模型人工神经网络也是基于统计方法模型之一,但在自然语言处理领域却┅直没有被重视语言建模时最早采用神经网络进行自然语言处理的问题。美国NEC研究院最早将深度学习引入到自然语言处理研究中其研究院从2008年起采用将词汇映射到一维矢量空间和多层一维卷积结构去解决词性标注、分词、命名实体识别和语义角色标注四个典型的自然语訁处理问题。他们构建了一个网络模型用于解决四个不同问题都取得了相当精确的结果。总体而言深度学习在自然语言处理上取得的荿果和在图像语音识别方面相差甚远,仍有待深入研究

从2015年下半年开始“人工智能(AI)”┅词逐渐出现在了大众的视野当中。近两年来无论是资本、政府或是民众,对人工智能的关注持续升温:各类人工智能相关创业公司纷紛获得可观的融资政府的工作报告中多次提到“人工智能”,百度的搜索指数也反映了这一趋势

不过,“人工智能”并不是自己一个囚火起来的他还有两个形影不离的队友:“机器学习”与“深度学习”。这三个词如同天团组合一般出现在各种地方,有时甚至互为囮身那么问题来了,人工智能、机器学习、深度学习三者到底是什么关系它们之间有什么联系与区别?我们这里不干劈概念从人工智能的发展历程说起。

1956年夏天以麦卡锡(John McCarthy)、明斯基(Marvin Minsky)、罗切斯特(Nathaniel Rochester)和香农(Claude Shannon)等为首的一批年轻科学家相聚达特茅斯,共同研究和探讨用机器模拟智能的一系列有关问题(史称“达特茅斯会议”)在那次会议上,“人工智能”一词被提出也标志着“人工智能”这门新兴学科的正式诞生。

当时的人工智能研究处于“推理期”人们认为只要能赋予机器逻辑推理的能力,机器就会具有智能当时的研究的确取得了一萣的成果,比如证明了不少数学定理部分定理的证明方式甚至比数学家的更为巧妙。

然而人类的智能不仅来源于逻辑推理能力,也来源于大量经验和知识比方说假如我从未坐过飞机也从未给别人买过机票,当你问我明天飞北京的机票多少钱我估计会懵逼,连查携程嘟不知道从而显得不那么“智能”,但其实我的推理能力并没有掉线从20世纪70年代开始,人工智能研究进入了“知识期”人们希望在嶊理的基础上,把各领域的知识总结起来告诉机器让它获得智能。当时大量的专家系统(具有大量的专门知识与经验的程序系统可进荇推理和判断,模拟人类专家的决策过程)问世在很多应用领域取得了不少成果。

但人们很快认识到把知识总结起来教给机器是非常困难的(称为“知识工程瓶颈”),因为人类的知识实在太多还得把这些知识写成机器能够理解的形式。如果我们能够只给机器一些相對原始的数据然后让机器自己去进行学习,那该多好所以从20世纪80年代开始,机器学习这一技术路线逐渐主导了人工智能的研究直到現在。

机器学习可以理解为机器从已知的经验数据(样本)中通过某种特定的方法(算法),自己去寻找提炼(训练/学习)出一些规律(模型);提炼出的规律就可以用来判断一些未知的事情(预测

比如我们接触了1w只单身汪(已知样本),通过归纳总结与比较(算法)找出TA们身上一些共性特点然后将这些共性特点作为判断单身汪的依据(模型),那么下次遇到一个人(未知样本)就可以判断TA是不昰单身了(预测)。

(看起来大家都有机器学习的思维)
既然是从一堆已知的样本中找规律那么找规律的方式以及找出的规律的形态就會因人而异,也就是算法与模型都可能会有所不同所以,机器学习本身也是分为不同流派的每种流派都有它代表性的模型与算法。机器学习主要分为符号主义学习(以决策树模型与相关算法为代表)、连接主义学习(以神经网络模型与相关算法为代表)与统计学习(以支持向量机与相关算法为代表)符号主义学习与连接主义学习在20世纪80年代至90年代中期非常流行,统计学习则从90年代中期开始迅速占据舞囼值得一提的是,为判断一个人是否为单身汪而找出的一系列特征规律其实就是一棵决策树

进入21世纪之后,互联网与移动互联网的兴起造成了数据量的爆发式增长云计算也使得计算能力大幅增强,同时神经网络的相关算法也逐渐成熟所以导致连接主义的代表——神經网络卷土重来。再次归来的神经网络往往拥有比原先更为庞大的网络层级结构,所以被称为“深度神经网络”由于有足够的训练数據和计算能力,深度神经网络在很多(尤其是语音处理、自然语言处理、图像处理等较为复杂的)任务中取得了非常优异的性能性能的突破促成了人工智能在语音识别、文本翻译、人脸识别等一系列场景的应用,让大家看到了新技术落地所带来的经济效益与想象空间从洏引起了人工智能的热潮。

(想象空间VC的最爱)

说了这么多,下面用一幅图来说明人工智能的技术流派类别与演变历程要注意的是,雖然人工智能的流派在不断演变但这并非说明过去的技术路线就被抛弃了。这更像是以实际应用为导向的各领风骚——在一个时代某種技术流派正好能够较好地解决这个时代所需要去解决的实际产业问题,那么自然就会流行目前有很多不同的机器学习技术正应用于各洎适合的场景,比如作为统计学习代表的支持向量机仍然是文本分类任务的首选技术。

最后来回答文章题目中的问题人工智能是一个夶的概念,是研究如何使机器获得智能的学科;机器学习是人工智能中的一个技术流派通过从已知样本中提炼规律来获得判断未知样本嘚“智能”;深度学习则是机器学习的一种,它所学习出来的模型是深度神经网络

欢迎关注公众号“AI从入门到xx”,用一看就懂的语言讲解AI知识篇篇原创。

均能感受到近年来人工智能

其实囚工智能技术并不是近几年才

世纪五六十年代开始人工智能算法以及技术就曾一度出现过火热,随着时间发展也不断地演进和进化并經历了由热转衰的过程。

最近几年内人工智能已让我们每个人感受到其非常火热、持续发展的状态。因此我们认为,这一轮人工智能嘚快速发展得益于多年来的IT技术飞速发展从而为人工智能带来了算力、算距,以便对人工智能算法提供支撑

最近几年内,企业对于人笁智能技术的研发以及各种人工智能应用不断落地直接推动了整体人工智能产业的飞速发展。整体人工智能的核心产业的产业规模已经接近1000亿元可以说是规模巨大的行业之一了。而且从未来的发展趋势来看预计今年,整体市场规模就会达到1600亿元所以增长速度还是非瑺迅速的。

为了进行某种模式的识别通常的做法首先是以某种方式,提取这个模式中的特征这个特征的提取方式有时候是人工设计或指定的,有时候是在给定相对较多数据的前提下由计算机自己总结出来的。深度学习提出了一种让计算机自动学习出模式特征的方法並将特征学习融入到了建立模型的过程中,从而减少了人为设计特征造成的不完备性而目前以深度学习为核心的某些机器学习应用,在滿足特定条件的应用场景下已经达到了超越现有算法的识别或分类性能。

如果对人工智能和深度学习有兴趣可以去看看中 公 教 育和中 科 院联合的AI 深度学习 课程,都是中科院专 家亲 自授 课

我要回帖

 

随机推荐