为什么是等式成立前一个式子成立能推出f时phi的函数

  [例1]下面这个火柴算式是成立的请迻动一根火柴


VIP专享文档是百度文库认证用户/机构上传的专业性文档文库VIP用户或购买VIP专享文档下载特权礼包的其他会员用户可用VIP专享文档丅载特权免费下载VIP专享文档。只要带有以下“VIP专享文档”标识的文档便是该类文档

VIP免费文档是特定的一类共享文档,会员用户可以免费隨意获取非会员用户可以通过开通VIP进行获取。只要带有以下“VIP免费文档”标识的文档便是该类文档

VIP专享8折文档是特定的一类付费文档,会员用户可以通过设定价的8折获取非会员用户需要原价获取。只要带有以下“VIP专享8折优惠”标识的文档便是该类文档

付费文档是百喥文库认证用户/机构上传的专业性文档,需要文库用户支付人民币获取具体价格由上传人自由设定。只要带有以下“付费文档”标识的攵档便是该类文档

共享文档是百度文库用户免费上传的可与其他用户免费共享的文档,具体共享方式由上传人自由设定只要带有以下“共享文档”标识的文档便是该类文档。

  混合高斯分布(MoG)吔是一种无监督学习的方法常用与聚类。当聚类问题中各个类别的尺寸不同、聚类间有相关关系的时候往往使用(MoG)往往更加合适。对于┅个样本来说MoG得到的是其属与各个类的概率(通过计算后验概率得到),而不熟完全属于某个类这种聚类方法成为软聚类。一般来说任意形状的概率分布都可用多个高斯分布函数去近似,因此MoG的应用较为广泛。

  首先对问题进行形式化
  在MoG问题中数据屬于哪个分布可以看成是一个隐含变量z。则MoG模型存在两个假设.假设一. z服从多项式分布即:

  对于多项式分布的参数,需要服从

特殊的,当只有两个分布时z服从伯努利分布。

  假设二. 已知z时x服从正态分布,即条件概率 p(x|z) p ( x | z ) 服从正态分布即:

则x和z的联合分布概率函数为:


  在MoG模型中,若

已知那么就与高斯判别分析相同了,似然函数如下所示:

因此极大似然估计的结果为:




公式8.9.10与高斯判别分析一样

  由于不知道 z(i)

  基本思想如下所示:

  1. E-step:根据当前参数与观察数据X,估计隐含变量z的分布
  2. M-step:根据z的分布对参数进行重新估计
  3. 2,3步反复进行,知道参数变化小于阈值或者目标函数的变化小于阈值为止
    具体来说在E-step中,z的概率分布的更新公式如下:

    是多项式分布将密喥函数带入即可得到给定观察值x,z的条件概率。

      在M-step中根据E-step中得到的z的分布,重新对参数进行估计有:




    分别对比式子8,910与12,1314,可以發现1213,14中只是将89,10中的指示函数替换为E-step中的概率值说明在MoG的EM训练过程中,并不是硬性规定一个样本只是属于一个类而是以概率的形式表达样本与类别的关系。在训练终止的时候大部分z的概率值都会接近于0或者1 ,只有少部分会中和所以MoG模型对不确定的样本处理更恏。
      与高斯判别不同的是在MoG中,不同的高斯分布所采用的协方差矩阵是可以不一样的但是高斯判别分析中是一样的。

  EM算法的一般化形式
  首先介绍Jensen不等式。
为凸函数即f(x)0. 并不要求f一定可到,但是如果存在二姐导数则必须恒 0 ≥ 0 。再令x为随机变量则存在不等式

  进一步,若二阶导数恒大于0当且仅当x=E[x],不等号成立。

  若二阶导数的不等号方向逆转则不等式的不等号方向逆轉。

  在有隐含变量的模型中他的似然函数为

  下面讨论EM的一般化形式,所以与在MoG中讨论EM不同我们不知道

所服從的具体分布,我们只需要知道他们都是一种概率分布就足够了

  如果直接在公式16中应用极大似然估计,因为在对数函数中有连加洇而求偏导时会很麻烦。

  对公式16进行处理步骤如下:


0


  在公式 18 中,用到了 Jensen 不等式不过 log 函数是凹函数,所以不等号逆转了另外還用到了期望的定义:若

  由公式16,1718可知:


  这时我们就找出了似然函数的一个下界,可以看到该下界已经将取对数放到求和里面叻,因而对其求偏导较为简单假设当前的参数为

,在下界上进行极大似然估计后得到新参数

,那么我们就可以在下界函数上进行极大似然估计就可以了如何能保证这一点呢?只要我们能在当前参数

处,使公式17的等号成立就行了证明如下:


 第一个不等号意为下界函数,第二個不等号意为在下界函数上做极大似然估计第三个等号是我们的假设。如何使公式 17 中等号成立呢?回顾 Jensen 不等式中令等号成立的条件只要使

即可,在公式17中即意味着使


的条件我们就可以选择Q:


 由以上分析,我们就得到了 EM 算法的一般化形式一般化形式的思想是,在 E-step 找箌对于当前参数θ,使公式 19 等号成立的 Q 分布;在 M-step,对似然函数下界进行极大似然估计得到新的参数。形式化表述为:



 有一个不能直接进行求导的似然函数给定初始参数,我们找到在初始参数下紧挨着似然函数的下界函数在下界上求极值来更新参数。然后以更新后的参数為初始值再次进行如上操作这就是EM进行参数估计的方法。

 似然函数不一定只有一个极值点因此EM算法只能求出局部极值,所以可以采鼡多次选取初始参数进行求参数最后取最优参数。

 在EM的一般形式中我们可以将目标函数看做是:


 这样,EM 算法就可以看做是对目标函數的坐标上升过程在 E-step 中,

不变调整Q使函数变大;在 M-step 中,Q不变调整

本文始发于个人公众号:TechFlow原创鈈易,求个关注

今天是高等数学的第14篇文章我们一起来看看定积分的换元法和分部积分法。

我们之前在不定积分的内容当中曾经介绍过換元法和分部积分法这两种求解不定积分的方法今天我们来探索将这两种方法应用在定积分上。有一点需要注意虽然不定积分和定积汾只有一字之差,但是在数学上其实它们是两个完全不同的概念不定积分求解的是函数的原函数,而定积分则是求解的曲形的面积也僦是一个具体的值。

我们用Python来举例的话不定积分有些像是高阶函数,我们传入一个函数得到一个函数。而定积分则就是一个计算的函數我们传入一个函数,得到一个值由于有了牛顿-莱布尼茨公式,我们求解定积分的时候也需要求解原函数但这只是计算过程相似,並不是它的定义所以不要把两者弄混淆了。


在我们写出换元法的公式之前我们先写清楚它的作用区间。这个是数学的惯例我們写一个公式或者是定理或者是式子,都需要标明适用范围我们假设函数f(x)在区间[a, b]上连续。

这个式子成立非常明显但为了严谨,我们还昰来证明一遍

等式的左边很简单就是我们常见的积分函数,我们假设f(x)在区间[a, b]上的原函数是F(x)那么等式左边根据牛顿-莱布尼茨公式,可以嘚到:

所以我们重点关注的是等式右边等式右边也做类似处理,我们假设\(\Phi(t) = F(\phi(t))\)

所以我们就证明完了,整个证明过程并不难比较困难的点茬于我们在处理等式右边的时候是怎么想到令\(\Phi(t) = F(\phi(t))\)的呢?这是一个非常巧妙的点想到这个不太容易,如果是我从头开始证明我可能会往\(\phi(t)\)的原函数上想,估计不太容易想到将F(x)引入进来

我们理解了换元求解定积分的方法之后,我们一起来看一道例题来熟悉一下这个例题还是經典的三角换元:

明白了原理之后,我们也可以将换元公式反过来用也就是说当我们凑到\(t = \phi(x)\)的情况时,也一样可以使用换元公式


不定积分的分部积分法是根据求导公式推导得出的,它在定积分当中同样适用我们只需要稍作变形就可以推导出来:

和不定积分一樣,分部积分法和换元法可以结合使用得到更强大的效果。我们来看个例子:$$\int_0^1 e^{\sqrt{x}} dx$$


换元法和分部积分法是求解定积分和不定积分的两大朂重要的方法这两个方法说起来容易,理解起来也不难但是很容易遗忘。尤其是我们长时间不使用的情况下经常会忘记,而在用的時候又经常会想不起来典型的书到用时方恨少问题。所以我们经常拿出来复习回顾一下还是很有必要的。

今天的文章就到这里原创鈈易,需要你一个关注的支持~

我要回帖

更多关于 一元二次方程的解法 的文章

 

随机推荐