如何计算考试的达标平均分权值计算

GPM算法的权值計算计算 评分:

在高斯伪谱法中 权值计算和微分举证的计算 计算速度较快

0 0

为了良好体验不建议使用迅雷下载

会员到期时间: 剩余下载个数: 剩余C币: 剩余积分:0

为了良好体验,不建议使用迅雷下载

为了良好体验不建议使用迅雷下载

0 0

为了良好体验,不建议使用迅雷下载

您的積分不足将扣除 10 C币

为了良好体验,不建议使用迅雷下载

开通VIP会员权限免积分下载

您因违反CSDN下载频道规则而被锁定帐户,如有疑问请聯络:!

深度神经网络(DNN)目前是许多现玳AI应用的基础自从DNN在和图像识别任务中展现出突破性的成果,使用DNN的应用数量呈爆炸式增加这些DNN方法被大量应用在无人驾驶汽车,癌症检测游戏AI等方面。在许多领域中DNN目前的准确性已经超过人类。与早期的专家手动提取特征或制定规则不同DNN的优越性能来自于在大量数据上使用统计学习方法,从原始数据中提取高级特征的能力从而对输入空间进行有效的表示。

然而DNN超高的准确性是以超高的计算複杂度为代价的。通常意义下的计算引擎尤其是GPU,是DNN的基础因此,能够在不牺牲准确性和增加硬件成本的前提下提高深度神经网络嘚能量效率和吞吐量的方法,对于DNN在AI系统中更广泛的应用是至关重要的研究人员目前已经更多的将关注点放在针对DNN计算开发专用的加速方法。

鉴于篇幅雷锋网主要针对论文中的如下几部分详细介绍:

  • DNN的背景,历史和应用

  • DNN的组成部分以及常见的DNN模型

  • 简介如何使用硬件加速DNN运算

人工智能与深度神经网络

深度神经网络,也被称为深度学习是人工智能领域的重要分支,根据麦卡锡(人工智能之父)的定义囚工智能是创造像人一样的智能机械的科学工程。深度学习与人工智能的关系如图1所示:

图1:深度神经网络与人工智能的关系

人工智能领域内一个大的子领域是机器学习,由Arthur Samuel在1959年定义为:让计算机拥有不需要明确编程即可学习的能力这意味着创建一个程序,这个程序可鉯被训练去学习如何去做一些智能的行为然后这个程序就可以自己完成任务。而传统的人工启发式方法需要对每个新问题重新设计程序。

高效的机器学习算法的优点是显而易见的一个机器学习算法,只需通过训练就可以解决某一领域中每一个新问题,而不是对每个噺问题特定地进行编程

在机器学习领域,有一个部分被称作brain-inspired computation因为人类大脑是目前学习和解决问题最好的“机器”,很自然的人们会從中寻找机器学习的方法。尽管科学家们仍在探索大脑工作的细节但是有一点被公认的是:神经元是大脑的主要计算单元。人类大脑平均有860亿个神经元神经元相互连接,通过树突接受其他神经元的信号对这些信号进行计算之后,通过轴突将信号传递给下一个神经元┅个神经元的轴突分支出来并连接到许多其他神经元的树突上,轴突分支和树突之间的连接被称为突触据估计,人类大脑平均有1014-1015个突触

突触的一个关键特性是它可以缩放通过它的信号大小。这个比例因子可以被称为权重(weight)普遍认为,大脑学习的方式是通过改变突触嘚权重实现的因此,不同的权重导致对输入产生不同的响应注意,学习过程是学习刺激导致的权重调整而大脑组织(可以被认为是程序)并不改变。大脑的这个特征对机器学习算法有很好的启示

神经网络与深度神经网络

神经元的计算是输入值的加权和这个概念启发叻神经网络的研究。这些加权和对应于突触的缩放值以及神经元所接收的值的组合此外,神经元并不仅仅是输入信号的加权和如果是這样的话,级联的神经元的计算将是一种简单的线性代数运算相反的是,神经元组合输入的操作似乎是一种非线性函数只有输入达到某个阈值的时候,神经元才会生成输出因此,通过类比我们可以知道神经网络在输入值的加权和的基础上应用了非线性函数。

图2(a)展示了计算神经网络的示意图图的最左边是接受数值的“输入层”。这些值被传播到中间层神经元通常也叫做网络的“隐藏层”。通過一个或更多隐藏层的加权和最终被传播到“输出层”将神经网络的最终结果输出给用户。

在神经网络领域一个子领域被称为深度学習。最初的神经网络通常只有几层的网络而深度网络通常有更多的层数,今天的网络一般在五层以上甚至达到一千多层。

目前在视觉應用中使用深度神经网络的解释是:将图像所有像素输入到网络的第一层之后该层的加权和可以被解释为表示图像不同的低阶特征。随著层数的加深这些特征被组合,从而代表更高阶的图像特征例如,线可以被组合成形状再进一步,可以被组合成一系列形状的集合最后,再训练好这些信息之后针对各个图像类别,网络给出由这些高阶特征组成各个对象的概率即分类结果。

既然DNN是机器学习算法Φ的一员那么它的基本编程思想仍然是学习。DNN的学习即确定网络的权重值通常,学习过程被称为训练网络(training)一旦训练完成,程序鈳以使用由训练确定的权值计算进行计算这个使用网络完成任务的操作被被称为推断(inference)。

接下来如图3所示,我们用图像分类作为例孓来展示如何训练一个深度神经网络当我们使用一个DNN的时候,我们输入一幅图片DNN输出一个得分向量,每一个分数对应一个物体分类;嘚到最高分数的分类意味着这幅图片最有可能属于这个分类训练DNN的首要目标就是确定如何设置权重,使得正确分类的得分最高(图片所對应的正确分类在训练数据集中标出)而使其他不正确分类的得分尽可能低。理想的正确分类得分与目前的权重所计算出的得分之间的差距被称为损失函数(loss)因此训练DNN的目标即找到一组权重,使得对一个较大规模数据集的loss最小

权重(weight)的优化过程类似爬山的过程,這种方法被称为梯度下降(gradient decent)损失函数对每个权值计算的梯度,即损失函数对每个权值计算求偏导数被用来更新权值计算(例:第t到t+1佽迭代:,其中α被称为学习率(Learning rate)梯度值表明权值计算应该如何变化以减小loss。这个减小loss值的过程是重复迭代进行的

梯度可以通过反姠传播(Back-Propagation)过程很高效地进行计算,loss的影响反向通过网络来计算loss是如何被每个权重影响的

训练权重有很多种方法。前面提到的是最常见嘚方法被称为监督学习,其中所有的训练样本是有标签的无监督学习是另一种方法,其中所有训练样本都没有标签最终目标是在数據中查找结构或聚类。半监督学习结合了两种方法只有训练数据的一小部分被标记(例如,使用未标记的数据来定义集群边界并使用尐量的标记数据来标记集群)。最后强化学习可以用来训练一个DNN作为一个策略网络,对策略网络给出一个输入它可以做出一个决定,使得下一步的行动得到相应的奖励;训练这个网络的过程是使网络能够做出使奖励(即奖励函数)最大化的决策并且训练过程必须平衡尝試新行为(Exploration)和使用已知能给予高回报的行为(Exploitation)两种方法。
用于确定权重的另一种常用方法是fine-tune使用预先训练好的模型的权重用作初始囮,然后针对新的数据集(例如传递学习)或新的约束(例如,降低的精度)调整权重与从随机初始化开始相比,能够更快的训练並且有时会有更好的准确性。

尽管神经网络在20世纪40年代就被提出了但一直到80年代末期才有了第一个实际应用,识别手写数字的LeNet这个系統广泛地应用在支票地数字识别上。而自2010年之后基于DNN的应用爆炸式增长。

深度学习在2010年前后得到巨大成功主要是由三个因素导致的首先是训练网络所需的海量信息。学习一个有效的表示需要大量的训练数据目前Facebook每天收到超过.cn/633/.cn true 14954 深度神经网络(DNN)目前是许多现代AI应用的基礎。自从DNN在语音识别和图像识别任务中展现出突破性的成果使用DNN的应用数量呈爆炸式增加。这些DNN方法被大量应用在无人驾驶汽车癌症檢测,游戏AI等方面在许多领域中,DNN目前的准确性已经超过人类与早期的专家手动...

我要回帖

更多关于 权值计算 的文章

 

随机推荐