当前位置: 首页 > news >正文

上海市建设合同信息表网站/免费发帖的平台有哪些

上海市建设合同信息表网站,免费发帖的平台有哪些,米特号类似网站,合肥市人民政府官网首页参考论文 《The Variational Approximation for Bayesian Inference》 令观测值为x\mathrm{x}x,代估参数值为 θ\thetaθ, EM算法所想要最大化的目标函数,最大似然函数可写为: ln⁡p(x;θ)F(q,θ)KL(q∥p)(1)\ln p(\mathbf{x} ; …

参考论文 《The Variational Approximation for Bayesian Inference》

令观测值为x\mathrm{x}x,代估参数值为 θ\thetaθ, EM算法所想要最大化的目标函数,最大似然函数可写为:

ln⁡p(x;θ)=F(q,θ)+KL(q∥p)(1)\ln p(\mathbf{x} ; \boldsymbol{\theta})=F(q, \boldsymbol{\theta})+K L(q \| p) \tag{1}lnp(x;θ)=F(q,θ)+KL(qp)(1)

  • p(x;θ)p(\mathrm{x} ; \boldsymbol{\theta})p(x;θ)强调θ\boldsymbol{\theta}θ是一个参数,例如似然函数便是以之为变量的函数。另一方面,p(x∣θ)p(\mathbf{x} \mid \boldsymbol{\theta})p(xθ)则强调θ\boldsymbol{\theta}θ是一个随机变量。
  • F(q,θ)=∫q(z)ln⁡(p(x,z;θ)q(z))dzF(q, \boldsymbol{\theta})=\int q(\mathbf{z}) \ln \left(\frac{p(\mathbf{x}, \mathbf{z} ; \boldsymbol{\theta})}{q(\mathbf{z})}\right) d \mathbf{z}F(q,θ)=q(z)ln(q(z)p(x,z;θ))dzKL(q∥p)=−∫q(z)ln⁡(p(z∣x;θ)q(z))dz\mathrm{KL}(q \| p)=-\int q(\mathrm{z}) \ln \left(\frac{p(\mathrm{z} \mid \mathrm{x} ; \boldsymbol{\theta})}{q(\mathrm{z})}\right) d \mathrm{z}KL(qp)=q(z)ln(q(z)p(zx;θ))dz. 因此(1)式的成立就简单地遵循了p(A)=p(A,B)−p(B∣A)p(A) = p(A,B) - p(B|A)p(A)=p(A,B)p(BA)这一条件概率规则。其中,KL也就是著名的KL散度 (q(z)q(z)q(z)p(z∣x;θ)p(\mathrm{z} \mid \mathrm{x} ; \boldsymbol{\theta})p(zx;θ)之间)。
  • 此处,z\mathbf{z}z是所谓的隐变量,也可以理解为用于求解最大似然问题的人工辅助变量。q(z)q(\mathbf{z})q(z)是任意的概率密度函数。 对于EM算法,z\mathbf{z}zq(z)q(\mathbf{z})q(z)往往有对应的物理意义。但这里我们并不care,只从纯数学的角度理解。

关于KL散度的介绍推介看这篇 传送门,其中,通过Jensen’s不等式可以证明KL散度非负,即KL(q∥p)≥0\mathrm{KL}(q \| p) \geq 0KL(qp)0,因此:
ln⁡p(x;θ)≥F(q,θ)(2)\ln p(\mathbf{x} ; \boldsymbol{\theta}) \geq F(q, \boldsymbol{\theta}) \tag{2} lnp(x;θ)F(q,θ)(2)
也就是说,(2)找到了最大似然函数的一个下界。因此,以EM算法为代表的许多贝叶斯推断都是在最大化该下界, 也即 F(q,θ)F(q, \boldsymbol{\theta})F(q,θ)

具体而言, EM算法是一个两步法对下界F(q,θ)F(q, \boldsymbol{\theta})F(q,θ)最大化, 从而最大化似然函数:

  • E-step:首先将θ\boldsymbol{\theta}θ固定为θOLD\boldsymbol{\theta}^{\mathrm{OLD}}θOLD,优化qqq来最大化F(q,θ)F(q, \boldsymbol{\theta})F(q,θ)。注意到,给定θ\boldsymbol{\theta}θln⁡p(x;θ)\ln p(\mathbf{x} ; \boldsymbol{\theta})lnp(x;θ)就确定了,因此根据(1), 最大化F(q,θ)F(q, \boldsymbol{\theta})F(q,θ)等价于最小化KL(q∥p)K L(q \| p)KL(qp), 而厚泽非负。 当且仅当q(z)=p(z∣x;θOLD)q(\mathbf{z})=p\left(\mathbf{z} \mid \mathbf{x} ; \boldsymbol{\theta}^{\mathrm{OLD}}\right)q(z)=p(zx;θOLD),取到最小值000。此时,F(q,θOLD)F(q, \boldsymbol{\theta}^{\mathrm{OLD}})F(q,θOLD) = ln⁡p(x;θOLD)\ln p(\mathbf{x} ; \boldsymbol{\theta}^{\mathrm{OLD}})lnp(x;θOLD)为最大值。
  • M-step: 将qqq固定, 优化θ\boldsymbol{\theta}θ来最大化F(q,θ)F(q, \boldsymbol{\theta})F(q,θ)。假定得到的最优解为θNEW\boldsymbol{\theta}^{\mathrm{NEW}}θNEW,那么对于固定的qqq,显然KL散度不再为000。也就是说,θNEW\boldsymbol{\theta}^{\mathrm{NEW}}θNEW不仅最大化了F(q,θ)F(q, \boldsymbol{\theta})F(q,θ),也让我们的目标ln⁡p(x;θ)\ln p(\mathbf{x} ; \boldsymbol{\theta})lnp(x;θ)得到了更大的提升。 注意到,由于在E-step中有q(z)=p(z∣x;θOLD)q(\mathbf{z})=p\left(\mathbf{z} \mid \mathbf{x} ; \boldsymbol{\theta}^{\mathrm{OLD}}\right)q(z)=p(zx;θOLD), 因此在M-step中的优化为:
    F(q,θ)=∫p(z∣x;θOLD)ln⁡p(x,z;θ)dz−∫p(z∣x;θOLD)ln⁡p(z∣x;θOLD)dz\begin{aligned} F(q, \boldsymbol{\theta})=& \int p\left(\mathbf{z} \mid \mathbf{x} ; \boldsymbol{\theta}^{\mathrm{OLD}}\right) \ln p(\mathbf{x}, \mathbf{z} ; \boldsymbol{\theta}) d \mathbf{z} \\ &-\int p\left(\mathbf{z} \mid \mathbf{x} ; \boldsymbol{\theta}^{\mathrm{OLD}}\right) \ln p\left(\mathbf{z} \mid \mathbf{x} ; \boldsymbol{\theta}^{\mathrm{OLD}}\right) d \mathbf{z} \end{aligned} F(q,θ)=p(zx;θOLD)lnp(x,z;θ)dzp(zx;θOLD)lnp(zx;θOLD)dz
    而后一项是与θ\boldsymbol{\theta}θ无关的常数项。 因此记:
    Q(θ,θOLD)=∫p(z∣x;θOLD)ln⁡p(x,z;θ)dzQ\left(\boldsymbol{\theta}, \boldsymbol{\theta}^{\mathrm{OLD}}\right)=\int p\left(\mathbf{z} \mid \mathbf{x} ; \boldsymbol{\theta}^{\mathrm{OLD}}\right) \ln p(\mathbf{x}, \mathbf{z} ; \boldsymbol{\theta}) d \mathbf{z} Q(θ,θOLD)=p(zx;θOLD)lnp(x,z;θ)dz

EM算法就可以被总结为:
在这里插入图片描述

推荐大家可以看下两个实例,再结合数学公式深入理解EM算法。 https://zhuanlan.zhihu.com/p/36331115
我个人觉得一个最好的例子就是K-means算法。 E步骤相当于给定质心的情况下,对数据进行聚类。M步骤相当于分类结束的情况下,根据每类的数据对质心进行更新。 隐函数zzz就代表类别,变量θ\boldsymbol{\theta}θ包括了每类的质心参数。

EM算法的核心在于, 原始的最大似然算法需求p(x;θ)p(\mathrm{x} ; \boldsymbol{\theta})p(x;θ)的信息, 而EM算法中需求的是p(z∣x;θ)p(\mathbf{z} \mid \mathbf{x} ; \boldsymbol{\theta})p(zx;θ)的信息,后者在许多时候可能比前者容易获得。但在一些场景中却并不如此,也导致无法使用EM算法。此时, 变分贝叶斯方法是一种更好的算法。

http://www.lbrq.cn/news/1030231.html

相关文章:

  • 个人域名怎么做社交网站/蒙牛牛奶推广软文
  • 建设网站的工作步骤是/建站工具有哪些
  • 做网站的规范尺寸/合肥网站
  • 无版权图片做网站/百度seo优化培训
  • 郑州睿网站建设/搜索引擎优化seo专员招聘
  • 泰拳图片做网站用/电脑培训课程
  • 投资网站建设/成都seo专家
  • 有什么做美食的网站/石家庄房价
  • 基金网站开发/推广合作
  • 做网站需要icp/如何创建个人网站免费
  • 多终端响应式网站/宁波seo高级方法
  • 网页设计推荐网站/aso关键词优化工具
  • 重庆石桥铺网站建设/网络推广渠道分类
  • 做微网站的公司哪家好/徐州seo网站推广
  • 大型门户网站设计公司/网页设计与制作步骤
  • 小程序源码之家/广州seo黑帽培训
  • 牙科医院网站源码/外包公司什么意思
  • 做门户网站难吗/百度网页搜索
  • 湖南省人民政府网站集约化建设/常德政府网站
  • dede 网站地图模板htm/seo小白入门教学
  • wordpress 最新 热门 随机 切换/太原seo
  • 佛山专业做网站公司有哪些/电商代运营十大公司排名
  • 如何用服务器代替空间做网站/seo网站优化系统
  • 家居公司网站建设方案ppt/南京百度网站快速优化
  • 贵阳网站设计报价/网站流量排名
  • 上海市政府官方网站/公司网站的作用
  • 遵义网站建设有限公司/联合早报 即时消息
  • 广东 网站备案/优化大师免费安装下载
  • 网站暂停怎么做/网络营销有哪些内容
  • 车床加工东莞网站建设/sem是什么检测分析
  • Go语言实战案例:简易图像验证码生成
  • 《算法导论》第 22 章 - 基本的图算法
  • 图论理论部分
  • 长篇音频制作(小说自动配音)完整教程
  • 【虚拟机】VMwareWorkstation17Pro安装步骤
  • 在 Ubuntu 中docker容器化操作来使用新建的 glibc-2.32