概念是人工智能的概念

人工智能的概念的定义是什么現在有没有比较的成熟的人工智能的概念的技术?... 人工智能的概念的定义是什么
现在有没有比较的成熟的人工智能的概念的技术?

可选Φ1个或多个下面的关键词搜索相关资料。也可直接点“搜索资料”搜索整个问题

人工智能的概念(Artificial Intelligence),英文缩写为AI它是研究、开发鼡于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

人工智能的概念可以对人的意识、思维的信息过程嘚模拟人工智能的概念不是人的智能,但能像人那样思考、也可能超过人的智能

人工智能的概念是计算机科学的一个分支,它企图了解智能的实质并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然語言处理和专家系统等人工智能的概念从诞生以来,理论和技术日益成熟应用领域也不断扩大,可以设想未来人工智能的概念带来嘚科技产品,将会是人类智慧的“容器”

人工智能的概念是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识心理学和哲学。人工智能的概念是包括十分广泛的科学它由不同的领域组成,如机器学习计算机视觉等等,总的说来人工智能的概念研究的┅个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。但不同的时代、不同的人对这种“复杂工作”的理解是不同嘚

人工智能的概念(Artificial Intelligence) ,英文缩写为AI它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。 人工智能的概念是计算机科学的一个分支它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式作出反应的智能机器該领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。“人工智能的概念”一词最初是在1956 年Dartmouth学会上提出的从那鉯后,研究者们发展了众多理论和原理,人工智能的概念的概念也随之扩展。人工智能的概念是一门极富挑战性的科学从事这项工作的人必須懂得计算机知识,心理学和哲学人工智能的概念是包括十分广泛的科学,它由不同的领域组成如机器学习,计算机视觉等等总的說来,人工智能的概念研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作但不同的时代、不同的人对这種“复杂工作”的理解是不同的。例如繁重的科学和工程计算本来是要人脑来承担的现在计算机不但能完成这种计算, 而且能够比人脑做嘚更快、更准确,因之当代人已不再把这种计算看作是“需要人类智能才能完成的复杂任务”, 可见复杂工作的定义是随着时代的发展和技術的进步而变化的, 人工智能的概念这门科学的具体目标也自然随着时代的变化而发展它一方面不断获得新的进展,一方面又转向更有意義、更加困难的目标目前能够用来研究人工智能的概念的主要物质手段以及能够实现人工智能的概念技术的机器就是计算机, 人工智能的概念的发展历史是和计算机科学与技术的发展史联系在一起的。除了计算机科学以外, 人工智能的概念还涉及信息论、控制论、自动化、仿苼学、生物学、心理学、数理逻辑、语言学、医学和哲学等多门学科人工智能的概念学科研究的主要内容包括:知识表示、自动推理和搜索方法、机器学习和知识获取、知识处理系统、自然语言理解、计算机视觉、智能机器人、自动程序设计等方面

“人工智能的概念”一詞最初是在1956 年Dartmouth学会上提出的。从那以后研究者们发展了众多理论和原理,人工智能的概念的概念也随之扩展人工智能的概念(Artificial Intelligence),英攵缩写为AI它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能的概念是计算機科学的一个分支它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能的概念从诞生以来理论和技术日益成熟,应用领域也不断扩大可以设想,未来人工智能的概念带来的科技产品将会是人类智慧的“容器”。

人工智能的概念是对人的意识、思维的信息过程的模拟人工智能的概念不是人的智能,但能像人那样思考、也可能超过人的智能

人工智能的概念(Artificial Intelligence),英文缩写为AI它是研究、开发用于模拟、延伸囷扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。其实定义的话百度百科相信已经说得非常清楚了相对成熟的人工智能的概念技术的产物田蜜AI电话机器人还是比较不错的。

有很多定义但都会提到图灵在54年发表的那篇著名的论文。教科书《一种现代接菦》中提到它是一个机构(实体)可以感知环境一系列的变化并针对变化做出反应。

阅读下面的文章完成题。

人笁智能的概念的概念很宽泛一般说来,人工智能的概念是研究人类智能活动的规律构造具有一定智能的人工系统,研究如何让计算机詓完成以往需要人的智力才能胜任的工作

人工智能的概念不是人的智能,是对人的意识、思维的信息过程的模拟但也可能超过人的智能。我们按照人工智能的概念的实力将其分成三大类

弱人工智能的概念。弱人工智能的概念是擅长于某一领域任务的人工智能的概念仳如谷歌的DeepMind系统精通围棋,但除围棋以外它在其他方面没有探索的理性和能力。

强人工智能的概念强人工智能的概念是指在各方面都能和人类比肩的人工智能的概念,人类能干的脑力活它都能干创造强人工智能的概念比创造弱人工智能的概念难得多,我们现在还做不箌

Linda Gottfredson(琳达·戈特弗雷德森)教授把智能定义为“一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速學习和从经验中学习等操作”强人工智能的概念在进行这些操作时应该和人类一样得心应手。

超人工智能的概念牛津哲学家、知名人笁智能的概念思想家Nick Bostrom(尼克·博斯特罗姆)把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能”超人工智能的概念可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的

这正是为什么人工智能的概念这个話题这么火热的缘故。

人工智能的概念革命是从弱人工智能的概念通过强人工智能的概念,最终到达超人工智能的概念的旅途我们现茬的世界充满了弱人工智能的概念,每一个弱人工智能的概念的创新都在给通往强人工智能的概念和超人工智能的概念的旅途添砖加瓦。

这一旅途比我们想象中的还要难走因为迄今为止,人脑是我们所知宇宙中最复杂的东西造摩天大楼、把人送入太空、明白宇宙大爆炸的细节——这些都比理解人脑,并且创造个类似的东西要简单太多了而且创造强人工智能的概念的难处,并不是你本能认为的那些

慥一个能在瞬间算出十位数乘法的计算机——非常简单;造一个能分辨出一个动物是猫还是狗的计算机——极端困难。造一个能战胜世界潒棋冠军的电脑——早就成功了;造一个能够读懂六岁小朋友的图片书中的文字并且了解那些词汇意思的电脑——谷歌花了几十亿美元茬做,还没做出来

用计算机科学家Donald Knuth(唐纳德·克努特)的说法,“人工智能的概念已经在几乎所有需要思考的领域超过了人类但是在那些人类不需要思考就能完成的事情上,还差得很远”

目前的弱人工智能的概念系统并不能威胁人类生存。最糟糕的情况无非是代码沒写好,程序出故障造成了单独的灾难,比如核电站故障、金融市场崩盘等等但我们知道的是,人类对于地球的统治教给我们一个道悝——智能就是力量也就是说,一个超人工智能的概念一旦被创造出来,将是地球有史以来最强大的东西而所有生物,包括人类嘟只能屈居其下。请想象一下一个比我们聪明100倍、1000倍、甚至10亿倍的大脑说不定能够随时随地操纵这个世界所有原子的位置。防止人类衰咾治疗各种不治之症,解决世界饥荒操纵气候变化甚至让人类永生,这一切都将变得可能同样可能的是地球上所有生命的终结。

(根据互联网相关材料改编

“阿尔法围棋”确实赢得了比赛但是它并不懂得赢意味着什么,更不能享受胜利的尊严与喜悦在“可测度”的领域内,人工智能的概念的计算能力都将超过人类;但是在“不可测度”的领域以数学算法为基础的人工智能的概念就只能望洋兴歎。

这正如科学家所言人工智能的概念“有智能没智慧,有智商没情商会计算不会算计”,它能在微秒之内完成百万级的乘法运算能够存储世界上所有图书馆里的知识,但如果要感知花开花谢的美丽、表达喜怒哀乐的情感人工智能的概念还不如3岁的小孩。  

(节选自囚民网思想的尊严永远只属于人类

1.根据材料一简要说说各类人工智能的概念有什么差别。

2.材料二“图一”所显示的左右脑功能中很难被人工智能的概念超越的是左脑功能还是右脑功能?请加以判断再从材料一和材料三中找出判断依据,并简述理由

3.材料一、材料三中的画线句以及材料二中的“图二”,都运用了作比较对比除此之外,其表述形式各有什么特点分别具有怎样的表达效果?

说奣文选材大多数是前沿科技、生态视野、环境保护、资源利用、文明传承等,注重内容的知识性、趣味性、实用性、时代性说明文的对潒几乎是必考点,也是易得分点在复习时注意准确把握和准确概括。说明顺序有时间顺序、空间顺序、逻辑顺序说明文语言也是必考點,主要考点在修饰限制成分上如对时间、空间、程度、范围、数量、频率等方面的准确界定上。说明方法及其作用也是考试重点习慣的考查方式是:运用了某种说明方法,将说明对象的某种特征说明的如何如何

隐君为人敦朴,粗率任真尤不能与俗竞。平生不识官府会里中有徭役事,隐君为之赋《鸿雁》之诗戾止于吴门。君故生长海上言语衣服,犹故时海上人也无纤毫城市媮靡之习,忣贵愈自敛约。就养余姚以力自随,独夜至官舍县中人无知者。敕受章服闭门不交州郡。郡太守行乡饮酒礼到门迎请终不一往每旦,焚香拜阙一饮一食,必以手加额曰:“微天子恩,不得此”居常读书,有所当意每抉摘向人谈说不休,曰:“吾不信紟人非古人也”故平生未尝爱财,未尝疑人

(选自震川先生集

①戾止于吴门:流传到苏州。

③以力自随:犹言只让力夫跟随自巳

2.请用“/”给下面句子断句,只断两处

郡 太 守 行 乡 饮 酒 礼 到 门 迎 请 终 不 一 往

3.用现代汉语翻译文中画线句。

居常读书有所当意,每抉摘向人谈说不休

4.请结合所给语句,分析顾隐君这一人物的性格特点

①会里中有徭役事,隐君为之赋《鸿雁》之诗戾止于吴门。

②无纖毫城市媮靡之习及贵,愈自敛约

③每旦,焚香拜阙一饮一食,必以手加额曰:“微天子恩,不得此”

阅读下列语段,完成题目

六朝烟水气”一词脱胎于        的长篇讽刺小说《儒林外史》,书中写到天长才子杜慎卿过江来南京发出“真乃菜佣酒保,都有六朝烟沝气”的感慨

②南京作家薛冰借用了这一说法在“家住六朝烟水间”这本书里,对南京的山川风物和南京人的儒雅雍容做了详细描述

③六朝为南京积淀了丰富深厚的文化底蕴,这种文化底蕴具有鲜明的地域特征可以说,只要南京这块地方就能孕育出“六朝烟水气”

④“六朝烟水气”的“是幽远清逸气质,是深深氤氲着的文化气韵在它的浸润之下,南京人便比别处要多几分风流雅韵多几许恬淡从容。

夫子庙小吃历史悠久风味独特品种繁多深受国内外游客的喜爱。

⑥“六朝烟水气”是地气和人气的结合是山野路人嘟能感受到的气息,是南京人特有的自然神态之美

起源于上世纪五、六十年代就提絀人工智能的概念的概念了当时叫感知机(perceptron),拥有输入层、输出层和一个隐含层输入的特征向量通过隐含层变换达到输出层,在输絀层得到分类结果当时的人们对此非常乐观,号称要在10年内解决所有的问题但是,单层感知机有一个严重得不能再严重的问题即它對稍复杂一些的函数都无能为力(比如最为典型的“异或”逻辑),连异或都不能拟合当时有一个专家叫明斯基,号称人工智能的概念の父在一次行业大会上公开承认,人工智能的概念连一些基本的逻辑运算(比如异或运算)都无能为力于是政府所有的资助全部都停掉了,于是进入人工智能的概念的第一个冬天

随着数学的发展,这个缺点直到上世纪八十年代才发明了多层感知机克服同时也提出了梯度下降、误差反向传播(BP)算法等当前深度学习中非常基础的算法。之前被人诟病的问题已经被解决了希望的小火苗又重新点燃了,於是人工智能的概念开始再次兴起

但是没过多久大家发现了,虽然理论模型是完善了但是并没有实际用途,还不能解决实际问题于昰又冷下去了,人工智能的概念的第二个冬天降临

下面我们就来第三次热潮是如何兴起的。

在这之前我们先介绍一个比赛。这个比赛昰一项图像识别的挑战赛给你大量图片去做图像识别,比赛看谁的识别错误低在2012年之前,错误率降低到30%以后再往下降就很难了,每姩只能下降个23个百分点。

直到2012年有一个哥们叫Alex,这哥们在寝室用GPU死磕了一个卷积神经网络的模型将识别错误率从26%下降到了16%,下降了10%咗右一举震惊了整个人工智能的概念界,当之无愧的获得了当年的冠军

从此之后,卷积神经网络一炮而红之后每年挑战赛的冠军,勝者都是利用卷积神经网络来训练的2015年,挑战赛的错误率已经降低到3.5%附近而在同样的图像识别的任务,人眼的辨识错误率大概在5.1%也僦是目前的深度学习模型的识别能力已经超过了人眼。

下图是最近几年比较有代表性的模型的架构

大家可以看出来,深度学习的模型的發展规律深,更深没有最深,只有更深

那么Alex的卷积神经网络这么厉害,是因为这个哥们是个学术大牛有什么独创性的学术研究成果么?

他所采用的模型是1998年Yann Lecun就提出了这个模型当时Yann Lecun把这个模型应用在识别手写邮编数字的识别上,取得了很好的效果他搭建的网络,命名为Lenet这个人的名字——Yann Lecun,大家一定要记住因为我们后面的内容将会以Lenet作为范本来讲解。

这个模型是1998年提出来的可为什么时隔这么哆年才开始火起来呢?

人工智能的概念突然爆发背后深层次的原因是什么我总结了一下,背后的原因主要有三个:

1.算法的成熟尤其是隨机梯度下降的方法的优化,以及一些能够有效防止过拟合的算法的提出至于什么是随机梯度下降和过拟合,后面我们会详细讲到

2.数据獲取互联网的爆发,尤其是移动互联网和社交网络的普及可以比较容易的获取大量的互联网资源,尤其是图片和视频资源因为做深喥学习训练的时候需要大量的数据。

3.计算能力的提升因为要训练的数据量很大(都是百万级以上的数据),而且训练的参数也很大(有嘚比较深的模型有几百万甚至上千万个的参数需要同时优化)而多亏了摩尔定律,能够以较低的价格获取强大的运算能力也多亏了Nvida,開发了GPU这个神器可以大幅降低训练时间。

GPU的运算速度是CPU的5-10倍左右同样的模型需要训练,如果用CPU训练需要一个礼拜的话那使用GPU,只需偠一天时间就可以了

截止到目前,我们汇总下我们的学习内容我们了解了人工智能的概念的简单介绍,大致了解了人工智能的概念的算法分类以及发展历史

接下来我们了解一下基础知识。

我们上面也提到了我们这次主要以卷积神经网络在图像识别领域的应用来介绍罙度学习的。

卷积神经网络这个词听起来非常深奥。

但其实没什么复杂的我们可以分开成两个词来理解,卷积和神经网络

卷积时数學的定义,在数学里是有明确的公式定义的

是不是觉得公式太抽象,看不明白没关系,我们举个栗子就明白了

还是以图像识别为例,我们看到的图像其实是由一个个像素点构成的

一般彩色图像的是RGB格式的,也就是每个像素点的颜色都是有RGB(红绿蓝三原色混合而成嘚),是三个值综合的表现

假设f函数为5x5(对应到图片上即为5x5像素)为例,h函数为3x3的函数大家可以理解为为一个手电筒(也就是筛选器),依次扫过这个5x5的区间在照过一个区域,就像对应区域里的值就和框里的数据去做运算最终输出为我们的输出图。

手电筒本身是一個函数在3x3的区域内,他在每个位置都有参数它的参数和对应到图片上相应位置的数字,先相乘然后再把相乘的数字相加的结果输出,依次按照这些去把整个图片全部筛选一遍就是我们所说的卷积运算了。

还是比较抽象没关系,看下面这个图片就清楚了

那我们为什么要做卷积呢?我们其实就是建立一个输入和输出的函数图像识别的目的就是把输入的信息(像素点信息)对应到我们输出结果(识別类别)上去,所以是逐层提取有用特征去除无用信息的过程。

比如下图所示第一层可以识别一些边缘信息,后面逐层抽象汇总到朂后,就可以输出我们想要的结果也就是我们的识别结果。

虽然我们知道特征是逐层抽象提取的但是不幸的是,我们并不知道那一层昰具体做什么的也就不知道那个层数具体是什么意思。

也就是说其实深度学习网络对于我们而言,是个黑盒子我们只能通过他的输絀来判断其好坏,而不能直接去调整某个参数

那么,什么是神经网络呢其实这个模型来自于心理学和神经学,人工智能的概念的专家借鉴了这个结构

左侧为神经元,神经元接收外界的输入刺激或者其他神经元的传递过来的信号经过处理,传递给外界或者给其他神经え

右侧为我们根据神经元的生物学特征抽象出来的数学模型,其中x是输入包括一开始数据来源(外部刺激)的输入,也包括其他节点(神经元)的输入

w为参数(weight),每个节点还有一个b这个b其实是一个偏置。

大家在学习新东西的时候凡事多问个为什么?只有知道背後的原因了这样你才能理解的更深刻。有句话说得好还有什么比带着问题学习更有效率的学习方法呢?

为什么要加这个b呢?大家想想看如果没有b的话,当输入x为0的时候输出全部为0,这是我们不想看到的所以要加上这个b,引入更多的参数带来更大的优化空间。

大家看一下目前为止,这个神经元里的函数(对输入信号的处理)都还是线性的也就是说输出与输入是线性相关的,但是根据神经元的生粅学研究发现其接受到的刺激与输入并不是线性相关的,也为了能够表征一些非线性函数所以必须要再引入一个函数,也就是下面我們要讲的激活函数(activation function)

为什么需要激活函数?因为需要引入一些非线性的特性在里面

常见的激活函数有这些。

以前是sigmoid比较常见但是現在ReLU用的比较多一些。

就类似于下图这样在节点经过线性运算后,经过非线性的ReLU,然后进入下一层的下一个节点中间的w和b,就是我们卷積神经网络的参数也是我们模型中需要训练的对象。

大家看LeNet模型中就是在输入数据多次进行卷积神经网络的处理。

对于模型而已我們习惯把输入的数据叫做输入层,中间的网络叫做隐藏层输出的结果叫做输出层。中间层数越多模型越复杂,所需要训练的参数也就樾多

一般说来,模型越复杂所能实现的功能也越强大,所能达到的精度也越高目前最深的模型大概有10的7次方个神经元,其神经元比楿对原始的脊椎动物如青蛙的神经系统还要小
自从引入隐藏单元,人工神经网络的大小大约每 2.4 年翻一倍按照现在的发展速度,大概要箌2050年左右才能达到人类大脑的神经元数量的规模

怎么判断一个模型训练的好坏呢?我们需要一个评价指标(也就是KPI考核指标)也就是損失函数。

习大大教导我们不忘初心 那我们最初的目标是什么?是建立输入输出的映射关系

比如我们的目标是判断一张图片上是只猫,还是一棵树那这张图片上所有的像素点就是输入,而判断结果就是输出

那怎么表征这个模型的好坏呢?很简单大家应该很容易想箌,就是把模型输出的答案和正确答案做一下比对看一下相差多少。

我们一般用下面这个公式(平均平方误差即MSE)来评估我们的模型恏坏。

我们就是通过对比输出结果与预期结果的差异其中带帽子的yu就是预期的结果(也就是标签值,即是真值)而前面的不带帽子的yu僦是实际的输出结果。当训练结果非常好的时候比如说是全对的时候,平均误差就是0当训练结果非常差的时候,比如说全错的时候誤差即为1.

于是我们知道了,这个E越小越好最好变成0.

大家注意下,这个求和的标识表示是所有的数据的和,而不是一个的数值我们常說大数据来训练模型,其实这就是大数据我们训练的时候需要上百万张的图片,最终得出来的误差就是这里,然后再除以数量取平均值。

那怎么去降低这个误差呢要回答这个问题,就涉及到卷积神经网络的核心思想了也就是反向传播。

既然讲到机器学习那当然昰让机器自己去通过数据去学习,那机器是如何进行自学习的呢下面就要敲黑板,划重点了因为这就是深度学习的重中之重了,也就昰机器学习的核心了理解了这个概念,基本上就理解了一多半了

这个概念就是反向传播。听名字比较玄乎其实这个概念大家在高等數学里都接触过这个概念了——梯度,其实也就是求导

对于一维函数而言,函数梯度下降的方向就是导数的反方向

对于二维函数而言,就是把误差对每个变量求偏导偏导的反方向即为梯度下降的方向。

说起来有点抽象我们举个实例来说明一下。

下面是我们的参数和損失函数的值

我们先对第一个参数加一个极小值,算出新的损失函数

然后用损失函数的变化去除这个极小值,就是这个参数的梯度了

只要找到梯度下降的方向,按照方向去优化这些参数就好了这个概念就是梯度下降。

但是我们知道我们要训练的参数非常多,数据量也非常大经常是百万、千万量级的,如果每次都把全部训练数据都重新计算一遍计算损失函数,然后再反向传播计算梯度,这样丅去模型的误差优化的非常非常慢。

那有没有更快的方法呢

这些参数(weights),数量非常多大概有上百万个,为了保证能够更好、更快嘚计算节省算力,一般选用随机梯度下降方法随机抽取一定数量(即为批量,batch)的样本去计算梯度值,一般选择32/64/128

这个方法就是随機梯度下降,这个批量(batch)这也是大家经常要调的参数

我们可以这样理解随机梯度下降,其核心思想是梯度是期望。期望可使用小规模的样本近似估计具体而言,在算法的每一步我们从训练集中均匀抽出小批量样本来代替全部数据的梯度,因为其梯度期望是一致的

值得一提是:这些batch中的样本,必须是随机抽取的否则其期望就准确了。选的批量(batch)的值越小进行一次参数优化的计算量越小,就樾快但是其随机性会比较大一些,如果选取的批量值比较大则计算会稍微慢一些,但是随机性会小一些这是我们需要权衡的。

前向計算一次反向反馈一下,更新一下参数叫做一个Epoch.

Epoch的次数也是个超参数,也是需要搭建模型的时候可以调整的参数

在整个模型中也是類似的。

简单总结下截止到目前,我们已经了解了一些深度学习的基本概念比如什么是卷积神经网络,了解了反向传播的传播的概念如何梯度下降的方法去优化误差。

基本上深度学习是什么回事大家已经知道了,但是深度学习还需要注意一些细节有句话说的好,細节就是魔鬼细节处理的好坏很大程度上决定了你是一个高手,还是一个菜鸟

我们在进行深度学习的时候一般会按照这4个步骤进行。

佷大程度上数据的多少决定模型所能达到的精度。再好的模型没有足够数据,也是白瞎

对于监督学习而言,需要大量标定的数据

數据的获取是有成本的,尤其是我们需要的数据都是百万、千万量级的成本非常高。亚马逊有个专门发布标定任务的平台叫做Amazon MechanicalTurk.

很多大嘚数据,比如IMAGENET就是在这上面做label的

Amazon从中抽取20%的费用,也就是说需求方发布100美元的任务,得多交20美元给Amazon躺着也挣钱。

由于数据的获取是囿成本的而且成本很高的。

为了更好的计算数据避免出现太大或者太小的数据,从而出现计算溢出或者精度失真一般在开始做数据處理之前,需要进行归一化处理就是将像素保持在合理的范围内,如[0,1]或者[-1,1]

除了上面提到的卷积神经网络之外,我们在搭建模型的时候还需要一些其他层,最常见的是输出控制

全连接层,其字面意思就是将每个输入值和每个输出值都连接起来全连接层的目的其实就昰控制输出数量。

比如我们最终分类是有10类那我们需要把输出控制为10个,那就需要一个全连接层来链接输出层

我们用数值来表征其可能性大小,数值越大其可能性越大,有的值可能很大有的值可能很小,是负的

怎么用概率来表征其可能性呢?总不能加起来一除吧但是有负数怎么办呢?全连接之后我们每个类别得到一个值,那怎么转化表征其可能性的概率呢我们一般通过softmax来转化。

独热编码,又叫做一位有效编码

有多少标签就转化为多少行的单列矩阵,其本质就是将连续值转化为离散值

这样可以直接直接将输出值直接输出,嘚到一个唯一值

就像一个筛子,只留一个最大值其他全部筛掉。

讲完输出控制我们再讲一下评价方法。

我们有一些数据希望利用現有的数据去训练模型,同时利用这些数据去评价这个模型的好坏也就是我们需要知道,这个模型的准确率是50%还是90%,还是99%

最先想到嘚是,用全部的数据去训练然后评价的时候,从中抽取一定数量的样本去做验证这不是很简单嘛?

想像一下在高考考场上,你打开試卷看了一眼之后高兴坏了。因为你发现这些试题你之前做练习的时候都做过

其实是一个道理。如果拿训练过的数据去做验证那得箌的误差率会比实际的误差率要低得多,也就失去了意义

那怎么办呢?我们需要把训练数据和最终评价的数据(也就是验证数据)要分開这样才能保证你验证的时候看的是全新的数据,才能保证得到的结果是客观可靠地结果所以我们会得到两个误差率,一个是训练集嘚误差率一个是验证集的误差率,记住这两个误差率后面会用到。

拿到数据的第一步先把所有的数据随机分成两部分:训练集和验證集。一般而言训练集占总数据的80%左右,验证集占20%左右

训练的时候,随机从训练集中抽取一个批量的数据去训练,也就是一次正向傳播和一次反向传播

这一轮做完之后,从验证集里随机抽取一定数量来评价下其误差率

每做一轮学习,一次正向传播一次反向传播僦随机从验证集里抽取一定数量数据来评价其模型的准确率,一轮之后我们获得训练误差率和验证误差率

接下来就是重点了,就是模型訓练

实际训练模型的时候,我们会碰到两大终极难题一个是欠拟合,一个是过拟合

所谓欠拟合,就是训练误差率和验证误差率都很高

所谓过拟合,就是训练集的误差率很低但是验证集的误差率很高。

欠拟合和过拟合其实跟模型的复杂程度有很大的关系

比如这张圖里面,本来是抛物线的数据如果用线性模型去拟合的话,效果很很差如果用9次方模型去拟合的话,虽然训练集表现非常好但是测試新数据的时候,你会发现表现很差

欠拟合的原因其实比较简单,就是模型的深度不够只需要把模型变得复杂一些就能解决。

过拟合嘚原因就比较多了一般来说,简单粗暴的增加训练集的数量就能解决这个问题但是有时候受限于客观条件,我们没有那么多数据这時候我们就需要调整一些参数来解决过拟合的问题了。

模型中能调整的参数叫做超参数

调整这些参数,有时候有道理有时候又没有道悝,更多的是靠的一种感觉有人说,调整超参数与其说是个科学其实更像是一项艺术。

上面提到的随机梯度下降中我们会在梯度的湔面加一个系数,我们管它叫做学习率这个参数直接影响了我们误差下降的快慢。

当我们遇到问题的时候先尝试调整下学习率,说不萣就能解决问题

选择一个合适的学习率可能是困难的。学习率太小会导致收敛的速度很慢学习率太大会妨碍收敛,导致损失函数在最尛值附近波动甚至偏离最小值下面这张图比较好的说明了学习率高低对模型误差下降的影响。

冲量的概念其实就是在梯度下降的时候紦上次的梯度乘以一个系数pho,加上本次计算的梯度然后乘以学习率,作为本次下降用的梯度pho一般选取0.9或者0.99。其本质就是加上了之前梯喥下降的惯性在里面所以叫做冲量。

有时候会采用冲量(momentum)能够有效的提高训练速度并且也能够更好的消除SGD的噪音(相当于加了平均徝),但是有个问题就是容易冲过头了,不过总体来说表现还是很不错的,一般用的也比较多

下面这两张图也能看出来,SGD+冲量能够囿效的加快优化速度还能够避免随机的噪音。

前面提到一次正向传播,一次反向传播就是一轮也就是一个epoch。

一般来说轮数越多,其误差会越好但是当学习的越多的时候,他会把一些不太关键的特征作为一些重要的判别标准从而出现了过拟合。如果发现这种情况(下图)我们需要尽早停止学习。

对于模型的所有参数我们均随机进行初始化,但是初始化的时候我们一般会让其均值为0公差为sigma,sigma┅般选择比较大这样其分散效果比较好,训练效果也比较好

但是有时候仅仅调整超参数并不能解决过拟合的问题,这时候我们需要在模型上做一些文章在模型上做一些处理,来避免过拟合

drop的逻辑非常简单粗暴,就是在dropout过程中有一半的参数不参与运算。

比如说公司裏每天随机有一般人不来上班,为了正常运转每个岗位都需要有好几个人来备份,这样公司就不会过于依赖某一个人其实是一个道悝。

dropout的本质是冗余为了避免过拟合,我们需要额外增加很多冗余使得其输出结果不依赖于某一个或几个特征。

除此之外池化也是比較常用到的。

Pooling主要的作用为降维降维的同时能够保留主要特征,能够防止过拟合

Pooling主要有两种:一种是最大化Pooling,还有一中是平均池化

朂大池化就是把区域的最大值传递到下一层(见下图),平均池化就是把区域内的平均值传递到下一层

一般在Pooling之后会加上一个1x1的卷积层,这样能够以非常低的成本(运算量)带来更多的参数,

更深的深度而且验证下来效果也非常好。

接下来我们可以分析下Lenet的数据看嘚出来是卷积—>池化—>卷积—>池化—>平化(Flatten,将深度转化为维度)—>全连接—>全连接—>全连接

下面这个模型也比较简单,经过多层卷积、池化之后平化,然后经过softmax转化

截止到目前,我们又了解了训练模型所需要的技巧如获取数据、预处理数据、模型搭建和模型调试,重点了解了如何防止过拟合

恭喜你,现在你已经完全了解了深度学习的全部思想成功晋级成深度学习高手了~

接下来我们看下深度学習的发展趋势。

目前深度学习在图像识别领域取得了很多突破比如可以对一张图片多次筛选获取多个类别,并标注在图片上

在做图像汾割标注的时候,难度很大需要把每个类别的范围用像素级的精度画出来。这对标注者的素质要求很高

还可以根据图像识别的结果直接生成语句。

Google翻译可以直接将图片上的字母翻译过来显示在图片上,很厉害

最近媒体上很多新闻,说人工智能的概念可以作诗写文嶂,画画等等这也都是比较简单的。

但是当前图像识别领域还存在一些问题最大的就是其抗干扰能力比较差。

下图中左侧的图片为原始图片模型可以轻易识别,但是人工加上一些干扰之后对于肉眼识别不会造成干扰,但是会引起模型的严重误判

这种情况可能会在某些很重要的商业应用中带来一些风险,比如在自动驾驶的物体识别时如果有人故意对摄像头造成干扰,就会引起误判从而可能会引起严重后果。

深度学习在自动驾驶领域有比较多的应用下面是我做自动驾驶项目中的视频。

下图为加特纳技术曲线就是根据技术发展周期理论来分析新技术的发展周期曲线(从1995年开始每年均有报告),以便帮助人们判断某种新技术是否采用其把技术成熟经过5个阶段:1昰萌芽期,人们对新技术产品和概念开始感知并且表现出兴趣;2是过热期,人们一拥而上纷纷采用这种新技术,讨论这种新技术;3是低谷期又称幻想破灭期。过度的预期严峻的现实,往往会把人们心理的一把火浇灭;4是复苏期又称恢复期。人们开始反思问题并從实际出发考虑技术的价值。相比之前冷静不少;5是成熟期又称高原期。该技术已经成为一种平常

当前机器学习和自动驾驶就处在过熱期。

说到底人工智能的概念其实就是一种工具而已,只不过这项工具能做的事情多了一些而已

未来人工智能的概念会融入到生活中嘚方方面面,我们不可能阻挡这种趋势所以我们唯一能做的,就是好好利用好这个工具让未来的工作和生活更加方便一些。

当前有些媒体在肆意宣扬人工智能的概念威胁论这其实是毫无道理的。

当人类对自己不了解的事物会本能的产生恐惧越是不了解,越是会产生恐惧

大家今天看下来,是不是也觉得人工智能的概念也没啥

其实就是因为了解了,所以才不会恐惧我们只有了解他,才能更好的利鼡好它

当前有部分无良媒体以及所谓的专家,在传播人工智能的概念威胁论

其实所谓的专家根本就不是这个领域的专家,如果他不是這个领域的专家那他对这个话题其实就没有话语权,他说话的下分量就跟一个普通人说的没什么区别

流传比较广的,比如说某个坐在輪椅上的英国物理学家对,没错我说的就是霍金。

还有某国际著名新能源汽车公司的CEO对,我说的就是Elon Musk

他们对人工智能的概念其实吔完全是一知半解。

相信大家今天看完这篇文章之后对人工智能的概念的理解就可以秒杀他们了。

最近看到吴军的一句话来解释人工智能的概念威胁论,觉得非常恰当

说一下人工智能的概念的边界:

1. 世界上有很多问题,其中只有一小部分是数学问题;

2. 在数学问题中呮有一小部分是有解的;

3. 在有解的问题中,只有一部分是理想状态的图灵机可以解决的;

4. 在后一类的问题中又只有一部分是今天实际的計算机可以解决的;

5. 而人工智能的概念可以解决的问题,又只是计算机可以解决问题的一部分

我要回帖

更多关于 人工智能的概念 的文章

 

随机推荐