12 VI——变分推断

文章目录

  • 12 VI——变分推断
    • 12.1 背景介绍
    • 12.2 Classical VI
      • 12.2.1 公式导出
      • 12.2.2 坐标上升法
    • 12.3 SGVI——随机梯度变分推断
      • 12.3.1 一般化MC方法
      • 12.3.2 降方差——Variance Reduction

12 VI——变分推断

12.1 背景介绍

变分推断的作用就是在概率图模型中进行参数估计,是参数估计的一种确定性近似的方法。下图给出了VI在机器学习中的地位:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-d8OyecRa-1686303181209)(assets/12 VI——变分推断/image-20230606193325497.png)]

12.2 Classical VI

12.2.1 公式导出

首先第一个问题,变分推断中的变分是什么?我们曾在EM算法的公式导出中得到过这样一个公式:
log ⁡ P ( X ) = ( ∫ Z q ( Z ) log ⁡ P ( X , Z ) q ( Z ) d Z ) + ( − ∫ Z q ( Z ) log ⁡ P ( Z ∣ X ) q ( Z ) d Z ) \log P(X) = \left( \int_Z q(Z) \log \frac{P(X, Z)}{q(Z)} {\rm d}Z \right) + \left( -\int_Z q(Z) \log \frac{P(Z|X)}{q(Z)} {\rm d}Z \right) logP(X)=(Zq(Z)logq(Z)P(X,Z)dZ)+(Zq(Z)logq(Z)P(ZX)dZ)
其中前半部分被叫做ELBO(Evidence Lower Bound),后半部分是KL公式,所以可以简化写成:
log ⁡ P ( X ) = L ( q ) + K L ( q ∣ ∣ p ) , L ( q ) = E L B O \log P(X) = {\mathcal L}(q) + KL(q||p), \quad {\mathcal L}(q) = ELBO logP(X)=L(q)+KL(q∣∣p),L(q)=ELBO
其中的ELBO也就是EM算法中的变分。


变分推断的一个具体作用就是在EM算法中,通过近似推断求解出 q ( z ) q(z) q(z)的分布。

若要使变分最大,自然是: q ^ = a r g max ⁡ L ( q )    ⟹    q ^ ≈ P ( Z ∣ X ) {\hat q} = arg\max {\mathcal L}(q) \implies {\hat q} \approx P(Z|X) q^=argmaxL(q)q^P(ZX),但在EM算法章节中我们也说了,由于 q ^ = P ( Z ∣ X ) {\hat q} = P(Z|X) q^=P(ZX)实际上大多情况都难以求解,所以需要通过别的办法实现。

而变分推断使用了Mean Theory: q ( Z ) = ∏ i = 1 M q i ( Z i ) q(Z) = \prod_{i=1}^M q_i(Z_i) q(Z)=i=1Mqi(Zi)。其中 M M M表示 q ( Z ) q(Z) q(Z)被切分成了 M M M个维度,其中每个维度表示为 q i ( Z i ) q_i(Z_i) qi(Zi)。这样通过固定 i = 1 , … , j − 1 , j + 1 , … , M i = 1, \dots, j-1, j+1, \dots, M i=1,,j1,j+1,,M的项求出 q j ( Z j ) q_j(Z_j) qj(Zj),由Mean Theory定理的公式就可以求出 q ( Z ) q(Z) q(Z)

所以下面我们来分析变分 L ( q ) {\mathcal L}(q) L(q)
L ( q ) = ∫ Z q ( Z ) log ⁡ P ( X , Z ) d Z − ∫ Z q ( Z ) log ⁡ q ( Z ) d Z {\mathcal L}(q) = \int_Z q(Z) \log {P(X, Z)} {\rm d}Z - \int_Z q(Z) \log {q(Z)} {\rm d}Z L(q)=Zq(Z)logP(X,Z)dZZq(Z)logq(Z)dZ
若我们将Mean Theory代入左式:

  1. 可得公式:
    l e f t = ∫ Z ∏ i = 1 M q i ( Z i ) ⋅ log ⁡ P ( X , Z ) d Z = ∫ Z j q j ( Z j ) ⋅ [ ∫ Z − Z j ∏ i ≠ j M q i ( Z i ) log ⁡ P ( X , Z ) d Z − Z j ] d Z j = ∫ Z j q j ( Z j ) ⋅ E ∏ i ≠ j M q i ( Z i ) [ log ⁡ P ( X , Z ) ] d Z j \begin{align} left &= \int_Z \prod_{i=1}^M q_i(Z_i) \cdot \log P(X, Z) {\rm d}_Z \\ &= \int_{Z_j}q_j(Z_j) \cdot \left[ \int_{Z - Z_j} \prod_{i \neq j}^M q_i(Z_i) \log P(X, Z) {\rm d}_{Z-Z_j} \right] {\rm d}_{Z_j} \\ &= \int_{Z_j}q_j(Z_j) \cdot E_{\prod_{i \neq j}^M q_i(Z_i)} \left[ \log P(X, Z) \right] {\rm d}_{Z_j} \\ \end{align} left=Zi=1Mqi(Zi)logP(X,Z)dZ=Zjqj(Zj) ZZji=jMqi(Zi)logP(X,Z)dZZj dZj=Zjqj(Zj)Ei=jMqi(Zi)[logP(X,Z)]dZj

  2. 此时我们强行将 E ∏ i ≠ j M q i ( Z i ) [ log ⁡ P ( X , Z ) ] E_{\prod_{i \neq j}^M q_i(Z_i)} \left[ \log P(X, Z) \right] Ei=jMqi(Zi)[logP(X,Z)]定义为 log ⁡ P ^ ( X , Z j ) \log {\hat P}(X, Z_j) logP^(X,Zj),就能得到:
    l e f t = ∫ Z j q j ( Z j ) ⋅ log ⁡ P ^ ( X , Z j ) d Z j \begin{align} left = \int_{Z_j}q_j(Z_j) \cdot \log {\hat P}(X, Z_j) {\rm d}_{Z_j} \\ \end{align} left=Zjqj(Zj)logP^(X,Zj)dZj

若将Mean Theory代入右式:

  1. 可得公式:
    r i g h t = ∫ Z ∏ i = 1 M q i ( Z i ) ⋅ ∑ k = 1 M log ⁡ q k ( Z k ) d Z = ∫ Z ∏ i = 1 M q i ( Z i ) ⋅ [ log ⁡ q 1 ( Z 1 ) + log ⁡ q 2 ( Z 2 ) + ⋯ + log ⁡ q M ( Z M ) ] d Z \begin{align} right &= \int_Z \prod_{i=1}^M q_i(Z_i) \cdot \sum_{k=1}^M \log q_k(Z_k) {\rm d}_Z \\ &= \int_Z \prod_{i=1}^M q_i(Z_i) \cdot [ \log q_1(Z_1) + \log q_2(Z_2) + \dots + \log q_M(Z_M) ] {\rm d}_Z \\ \end{align} right=Zi=1Mqi(Zi)k=1Mlogqk(Zk)dZ=Zi=1Mqi(Zi)[logq1(Z1)+logq2(Z2)++logqM(ZM)]dZ

  2. 其中出了第 j j j项,我们都固定了,可以视为常数。将第 j j j项提出来可以得到:
    j − t h = ∫ Z ∏ i = 1 M q i ( Z i ) ⋅ log ⁡ q j ( Z j ) d Z = ∫ Z 1 q 1 ( Z 1 ) d Z 1  ⁣ ⋯ ∫ Z j q j ( Z j ) ⋅ log ⁡ q j ( Z j ) d Z j  ⁣ ⋯ ∫ Z M q M ( Z M ) d Z M = ∫ Z j q j ( Z j ) ⋅ log ⁡ q j ( Z j ) d Z j \begin{align} j-th &= \int_Z \prod_{i=1}^M q_i(Z_i) \cdot \log q_j(Z_j) {\rm d}_Z \\ &= \int_{Z_1} q_1(Z_1) {\rm d}_{Z_1} \dots \int_{Z_j} q_j(Z_j) \cdot \log q_j(Z_j) {\rm d}_{Z_j} \dots \int_{Z_M} q_M(Z_M) {\rm d}_{Z_M} \\ &= \int_{Z_j} q_j(Z_j) \cdot \log q_j(Z_j) {\rm d}_{Z_j} \end{align} jth=Zi=1Mqi(Zi)logqj(Zj)dZ=Z1q1(Z1)dZ1Zjqj(Zj)logqj(Zj)dZjZMqM(ZM)dZM=Zjqj(Zj)logqj(Zj)dZj

  3. 所以可得:
    r i g h t = ∫ Z j q j ( Z j ) ⋅ log ⁡ q j ( Z j ) d Z j + C \begin{align} right = \int_{Z_j} q_j(Z_j) \cdot \log q_j(Z_j) {\rm d}_{Z_j} + C \end{align} right=Zjqj(Zj)logqj(Zj)dZj+C

综合一下上述的公式可得:
L ( q ) = l e f t − r i g h t = ∫ Z j q j ( Z j ) ⋅ log ⁡ P ^ ( X , Z j ) d Z j − ∫ Z j q j ( Z j ) ⋅ log ⁡ q j ( Z j ) d Z j − C = ∫ Z j q j ( Z j ) ⋅ log ⁡ P ^ ( X , Z j ) q j ( Z j ) d Z j − C = − K L ( P ^ ( X , Z j ) ∥ q j ( Z j ) ) d Z j − C \begin{align} {\mathcal L}(q) &= left - right \\ &= \int_{Z_j}q_j(Z_j) \cdot \log {\hat P}(X, Z_j) {\rm d}_{Z_j} - \int_{Z_j} q_j(Z_j) \cdot \log q_j(Z_j) {\rm d}_{Z_j} - C \\ &= \int_{Z_j}q_j(Z_j) \cdot \log \frac{{\hat P}(X, Z_j)}{q_j(Z_j)} {\rm d}_{Z_j} - C \\ &= -KL({{\hat P}(X, Z_j)} \Vert {q_j(Z_j)}) {\rm d}_{Z_j} - C \\ \end{align} L(q)=leftright=Zjqj(Zj)logP^(X,Zj)dZjZjqj(Zj)logqj(Zj)dZjC=Zjqj(Zj)logqj(Zj)P^(X,Zj)dZjC=KL(P^(X,Zj)qj(Zj))dZjC
若要得到最大的$ {\mathcal L}(q) $,可得:
{ q j ( Z j ) = P ^ ( X , Z j ) log ⁡ P ^ ( X , Z j ) = E ∏ i ≠ j M q i ( Z i ) [ log ⁡ P ( X , Z ) ] \begin{cases} {q_j(Z_j)} = {{\hat P}(X, Z_j)} \\ \log {\hat P}(X, Z_j) = E_{\prod_{i \neq j}^M q_i(Z_i)} \left[ \log P(X, Z) \right] \end{cases} {qj(Zj)=P^(X,Zj)logP^(X,Zj)=Ei=jMqi(Zi)[logP(X,Z)]

12.2.2 坐标上升法

至此,我们已经得到了 q j ( Z j ) q_j(Z_j) qj(Zj)的求解公式,接下来我们只要能求出 q 1 ( Z 1 ) , … , q M ( Z M ) q_1(Z_1), \dots, q_M(Z_M) q1(Z1),,qM(ZM),就可以通过Mean Theory求解出 q ( Z ) q(Z) q(Z)了。

我们根据上面获得的变分最大条件进行分析:
log ⁡ q j ( Z j ) = E ∏ i ≠ j M q i ( Z i ) [ log ⁡ P ( X , Z ) ] \log {q_j(Z_j)} = E_{\prod_{i \neq j}^M q_i(Z_i)} \left[ \log P(X, Z) \right] logqj(Zj)=Ei=jMqi(Zi)[logP(X,Z)]
我们将这个条件展开可以得到:
log ⁡ q j ( Z j ) = ∫ q 1  ⁣ ⋯ ∫ q j − 1 ∫ q j + 1  ⁣ ⋯ ∫ q M q 1 , … , q j − 1 , q j + 1 , … , q M ⋅ log ⁡ P ( X , Z ) d q 1 … d q j − 1 d q j + 1 … d q M \log {q_j(Z_j)} = \int_{q_1} \dots \int_{q_{j-1}} \int_{q_{j+1}} \dots \int_{q_M} q_1, \dots, q_{j-1}, q_{j+1}, \dots, q_M \cdot \log P(X, Z) {\rm d}{q_1} \dots {\rm d}{q_{j-1}} {\rm d}{q_{j+1}} \dots {\rm d}{q_M} logqj(Zj)=q1qj1qj+1qMq1,,qj1,qj+1,,qMlogP(X,Z)dq1dqj1dqj+1dqM
已知该公式,我们可以采用坐标上升法迭代求解 q 1 ( Z 1 ) , … , q M ( Z M ) {q_1(Z_1)}, \dots, {q_M(Z_M)} q1(Z1),,qM(ZM)
{ log ⁡ q 1 ^ ( Z 1 ) = ∫ q 2  ⁣ ⋯ ∫ q M q 2 , … , q M ⋅ log ⁡ P ( X , Z ) d q 2 … d q M log ⁡ q 2 ^ ( Z 2 ) = ∫ q 1 ^ ∫ q 3  ⁣ ⋯ ∫ q M q 1 ^ , q 3 , … , q M ⋅ log ⁡ P ( X , Z ) d q 1 ^ d q 3 … d q M … log ⁡ q M ^ ( Z M ) = ∫ q 1 ^  ⁣ ⋯ ∫ q M − 1 ^ q 1 ^ , … , q M − 1 ^ ⋅ log ⁡ P ( X , Z ) d q 1 ^ … d q M − 1 ^ \begin{cases} \log {\hat {q_1}(Z_1)} = \int_{q_2} \dots \int_{q_M} q_2, \dots, q_M \cdot \log P(X, Z) {\rm d}{q_2} \dots {\rm d}{q_M} \\ \log {\hat {q_2}(Z_2)} = \int_{\hat {q_1}} \int_{q_3} \dots \int_{q_M} {\hat {q_1}}, q_3, \dots, q_M \cdot \log P(X, Z) {\rm d}{\hat {q_1}} {\rm d}{q_3} \dots {\rm d}{q_M} \\ \dots \\ \log {\hat {q_M}(Z_M)} = \int_{\hat {q_1}} \dots \int_{\hat {q_{M-1}}} {\hat {q_1}}, \dots, {\hat {q_{M-1}}} \cdot \log P(X, Z) {\rm d}{\hat {q_1}} \dots {\rm d}{\hat {q_{M-1}}} \\ \end{cases} logq1^(Z1)=q2qMq2,,qMlogP(X,Z)dq2dqMlogq2^(Z2)=q1^q3qMq1^,q3,,qMlogP(X,Z)dq1^dq3dqMlogqM^(ZM)=q1^qM1^q1^,,qM1^logP(X,Z)dq1^dqM1^
并且可以通过循环多次的迭代增加精度。

但Classical VI有缺点:

  • Mean Fied的条件太强,很多模型不满足
  • 若维度太高,会变成高维积分导致无法求解

12.3 SGVI——随机梯度变分推断

12.3.1 一般化MC方法

倘若我们使用 φ \varphi φ表示 q ( Z ) q(Z) q(Z)的参数,同时下文普遍将 q ( Z ) q(Z) q(Z)缩写为 q φ q_\varphi qφ,所以我们可以将公式写为(ELBO对于 P θ ( X , Z ) P_\theta(X, Z) Pθ(X,Z) P θ ( x i , Z ) P_\theta(x_i, Z) Pθ(xi,Z)都成立):
L ( φ ) = E L B O = E q φ [ log ⁡ P θ ( x i , Z ) q φ ] = E q φ [ log ⁡ P θ ( x i , Z ) − log ⁡ q φ ] {\mathcal L}(\varphi) = ELBO = E_{q_\varphi } \left[ \log \frac{P_\theta(x_i, Z)}{q_\varphi} \right] = E_{q_\varphi } \left[ \log {P_\theta(x_i, Z)} - \log {q_\varphi} \right] L(φ)=ELBO=Eqφ[logqφPθ(xi,Z)]=Eqφ[logPθ(xi,Z)logqφ]
我们当前的目标是求解 φ ^ = a r g max ⁡ φ L ( φ ) {\hat \varphi} = arg\max_\varphi {\mathcal L}(\varphi) φ^=argmaxφL(φ),为了求解,我们打算采用梯度上升法,而要想使用梯度上升法,就必须求解得到梯度方向 ∇ φ L ( φ ) \nabla_\varphi {\mathcal L}(\varphi) φL(φ)
∇ φ L ( φ ) = ∇ φ E q φ [ log ⁡ P θ ( x i , Z ) − log ⁡ q φ ] = ∇ φ ∫ Z q φ ⋅ [ log ⁡ P θ ( x i , Z ) − log ⁡ q φ ] d Z \nabla_\varphi {\mathcal L}(\varphi) = \nabla_\varphi E_{q_\varphi } \left[ \log {P_\theta(x_i, Z)} - \log {q_\varphi} \right] = \nabla_\varphi \int_Z q_\varphi \cdot \left[ \log {P_\theta(x_i, Z)} - \log {q_\varphi} \right] {\rm d}_Z φL(φ)=φEqφ[logPθ(xi,Z)logqφ]=φZqφ[logPθ(xi,Z)logqφ]dZ

引入梯度变换公式:
∇ x ∫ z A ( x , z ) ⋅ B ( x , z ) d z = ∫ z ∇ x A ( x , z ) ⋅ B ( x , z ) d z + ∫ z A ( x , z ) ⋅ ∇ x B ( x , z ) d z \nabla_x \int_z A(x, z) \cdot B(x, z) {\rm d}z = \int_z \nabla_x A(x, z) \cdot B(x, z) {\rm d}z + \int_z A(x, z) \cdot \nabla_x B(x, z) {\rm d}z xzA(x,z)B(x,z)dz=zxA(x,z)B(x,z)dz+zA(x,z)xB(x,z)dz

可得:
∇ φ L ( φ ) = ∫ Z ∇ φ q φ ⋅ [ log ⁡ P θ ( x i , Z ) − log ⁡ q φ ] d Z + ∫ Z q φ ⋅ ∇ φ [ log ⁡ P θ ( x i , Z ) − log ⁡ q φ ] d Z \nabla_\varphi {\mathcal L}(\varphi) = \int_Z \nabla_\varphi q_\varphi \cdot \left[ \log {P_\theta(x_i, Z)} - \log {q_\varphi} \right] {\rm d}_Z + \int_Z q_\varphi \cdot \nabla_\varphi \left[ \log {P_\theta(x_i, Z)} - \log {q_\varphi} \right] {\rm d}_Z φL(φ)=Zφqφ[logPθ(xi,Z)logqφ]dZ+Zqφφ[logPθ(xi,Z)logqφ]dZ
这里主要看一下右边的公式:
r i g h t = ∫ Z q φ ⋅ ∇ φ [ log ⁡ P θ ( x i , Z ) − log ⁡ q φ ] d Z = ∫ Z q φ ⋅ ∇ φ [ − log ⁡ q φ ] d Z —— log ⁡ P θ ( x i , Z ) 与 φ 无关 = − ∫ Z ∇ φ q φ d Z —— ∇ φ [ − log ⁡ q φ ] = − 1 q φ ∇ φ q φ = − ∇ φ ∫ Z q φ d Z = − ∇ φ 1 = 0 \begin{align} right &= \int_Z q_\varphi \cdot \nabla_\varphi \left[ \log {P_\theta(x_i, Z)} - \log {q_\varphi} \right] {\rm d}_Z \\ &= \int_Z q_\varphi \cdot \nabla_\varphi \left[- \log {q_\varphi} \right] {\rm d}_Z & ——\log {P_\theta(x_i, Z)}与\varphi无关 \\ &= - \int_Z \nabla_\varphi q_\varphi {\rm d}_Z & ——\nabla_\varphi \left[- \log {q_\varphi} \right]=-\frac{1}{q_\varphi}\nabla_\varphi q_\varphi \\ &= - \nabla_\varphi \int_Z q_\varphi {\rm d}_Z \\ &= - \nabla_\varphi 1 \\ &= 0 \end{align} right=Zqφφ[logPθ(xi,Z)logqφ]dZ=Zqφφ[logqφ]dZ=ZφqφdZ=φZqφdZ=φ1=0——logPθ(xi,Z)φ无关——φ[logqφ]=qφ1φqφ
所以可以将公式继续写为:
∇ φ L ( φ ) = ∫ Z ∇ φ q φ ⋅ [ log ⁡ P θ ( x i , Z ) − log ⁡ q φ ] d Z = ∫ Z q φ ∇ φ log ⁡ q φ ⋅ [ log ⁡ P θ ( x i , Z ) − log ⁡ q φ ] d Z —— ∇ φ q φ = q φ ∇ φ log ⁡ q φ = E q φ [ ∇ φ log ⁡ q φ ⋅ ( log ⁡ P θ ( x i , Z ) − log ⁡ q φ ) ] \begin{align} \nabla_\varphi {\mathcal L}(\varphi) &= \int_Z \nabla_\varphi q_\varphi \cdot \left[ \log {P_\theta(x_i, Z)} - \log {q_\varphi} \right] {\rm d}_Z \\ &= \int_Z q_\varphi \nabla_\varphi \log{q_\varphi} \cdot \left[ \log {P_\theta(x_i, Z)} - \log {q_\varphi} \right] {\rm d}_Z & ——\nabla_\varphi q_\varphi = q_\varphi \nabla_\varphi \log{q_\varphi} \\ &= E_{q_\varphi} \left[ \nabla_\varphi \log{q_\varphi} \cdot \left( \log {P_\theta(x_i, Z)} - \log {q_\varphi} \right) \right] \\ \end{align} φL(φ)=Zφqφ[logPθ(xi,Z)logqφ]dZ=Zqφφlogqφ[logPθ(xi,Z)logqφ]dZ=Eqφ[φlogqφ(logPθ(xi,Z)logqφ)]——φqφ=qφφlogqφ


至此我们已经得到了公式:
∇ φ L ( φ ) = E q φ [ ∇ φ log ⁡ q φ ⋅ ( log ⁡ P θ ( x i , Z ) − log ⁡ q φ ) ] \begin{align} \nabla_\varphi {\mathcal L}(\varphi) = E_{q_\varphi} \left[ \nabla_\varphi \log{q_\varphi} \cdot \left( \log {P_\theta(x_i, Z)} - \log {q_\varphi} \right) \right] \\ \end{align} φL(φ)=Eqφ[φlogqφ(logPθ(xi,Z)logqφ)]
通过该公式,我们就可以通过Monte Carlo方法进行采样估算:
Z ( l ) ∽ q φ ( Z ) , l ∈ [ 1 , L ]    ⟹    ∇ φ L ( φ ) ≈ 1 L ∑ l = 1 L [ ∇ φ log ⁡ q φ ( Z ( l ) ) ⋅ ( log ⁡ P θ ( x i , Z ( l ) ) − log ⁡ q φ ( Z ( l ) ) ) ] Z^{(l)} \backsim q_\varphi(Z), l \in [1, L] \implies \nabla_\varphi {\mathcal L}(\varphi) \approx \frac{1}{L} \sum_{l=1}^L \left[ \nabla_\varphi \log{q_\varphi}(Z^{(l)}) \cdot \left( \log {P_\theta(x_i, Z^{(l)})} - \log {q_\varphi}(Z^{(l)}) \right) \right] Z(l)qφ(Z),l[1,L]φL(φ)L1l=1L[φlogqφ(Z(l))(logPθ(xi,Z(l))logqφ(Z(l)))]
但这个采样方法无法使用,因为 ∇ φ log ⁡ q φ ( Z ( l ) ) \nabla_\varphi \log{q_\varphi}(Z^{(l)}) φlogqφ(Z(l)) ( 0 , 1 ) (0, 1) (0,1)的区间内波动太大( log ⁡ 在 ( 0 , 1 ) \log在(0,1) log(0,1)中的取值范围太大),导致单次样本解的方差太大。若要解决就要增加采样的数据了,但这又太浪费时间,不满足现实应用。

12.3.2 降方差——Variance Reduction

为了降低方差,这里要用到重新参数化技巧(Reparametrization Trick):通过对随机化参数的重构,降低当前公式的求解方差。

由于当前的参数是 Z ∽ q φ ( Z ∣ x i ) Z \backsim q_\varphi(Z|x_i) Zqφ(Zxi)​,为了将参数转换为方差没有那么大的参数,我们假设:
Z ∽ g φ ( ε ∣ x i ) , ε ∽ p ( ε ) Z \backsim g_\varphi(\varepsilon|x_i), \varepsilon \backsim p(\varepsilon) Zgφ(εxi),εp(ε)
通过上述方法,将Z随机样本的身份给了 ε \varepsilon ε,这样可以通过创建 ε ( l ) \varepsilon^{(l)} ε(l)求出 Z Z Z,所以现在我们已知新旧的两个分布: { z ∽ q φ ( Z ∣ x i ) ε ∽ p ( ε ) \begin{cases} z \backsim q_\varphi(Z|x_i) \\ \varepsilon \backsim p(\varepsilon) \end{cases} {zqφ(Zxi)εp(ε),这两个分布是通过 g φ g_\varphi gφ转换,可以得到 ∣ q φ ( Z ∣ x i ) d z ∣ = ∣ p ( ε ) d ε ∣ |q_\varphi(Z|x_i) {\rm d}z| = |p(\varepsilon) {\rm d}\varepsilon| qφ(Zxi)dz=p(ε)dε我也不知道为啥)。

所以我们可以得到以下推导:
∇ φ L ( φ ) = ∇ φ ∫ Z [ log ⁡ P θ ( x i , Z ) − log ⁡ q φ ] ⋅ q φ d Z = ∇ φ ∫ Z [ log ⁡ P θ ( x i , Z ) − log ⁡ q φ ] ⋅ p ( ε ) d ε = ∇ φ E p ( ε ) [ log ⁡ P θ ( x i , Z ) − log ⁡ q φ ] = E p ( ε ) [ ∇ φ ( log ⁡ P θ ( x i , Z ) − log ⁡ q φ ) ] —— ∇ φ 与 p ( ε ) 无关 = E p ( ε ) [ ∇ Z ( log ⁡ P θ ( x i , Z ) − log ⁡ q φ ) ⋅ ∇ φ g φ ( ε ∣ x i ) ] ——变量转换方法 \begin{align} \nabla_\varphi {\mathcal L}(\varphi) &= \nabla_\varphi \int_Z \left[ \log {P_\theta(x_i, Z)} - \log {q_\varphi} \right] \cdot q_\varphi {\rm d}_Z \\ &= \nabla_\varphi \int_Z \left[ \log {P_\theta(x_i, Z)} - \log {q_\varphi} \right] \cdot p(\varepsilon) {\rm d}\varepsilon \\ &= \nabla_\varphi E_{p(\varepsilon)} \left[ \log {P_\theta(x_i, Z)} - \log {q_\varphi} \right] \\ &= E_{p(\varepsilon)} \left[ \nabla_\varphi (\log {P_\theta(x_i, Z)} - \log {q_\varphi}) \right] & ——\nabla_\varphi与p(\varepsilon)无关 \\ &= E_{p(\varepsilon)} \left[ \nabla_Z (\log {P_\theta(x_i, Z)} - \log {q_\varphi}) \cdot \nabla_\varphi g_\varphi(\varepsilon|x_i) \right] & ——变量转换方法 \\ \end{align} φL(φ)=φZ[logPθ(xi,Z)logqφ]qφdZ=φZ[logPθ(xi,Z)logqφ]p(ε)dε=φEp(ε)[logPθ(xi,Z)logqφ]=Ep(ε)[φ(logPθ(xi,Z)logqφ)]=Ep(ε)[Z(logPθ(xi,Z)logqφ)φgφ(εxi)]——φp(ε)无关——变量转换方法


通过以上变换我们得到了新的采样对象:
∇ φ L ( φ ) = E p ( ε ) [ ∇ Z ( log ⁡ P θ ( x i , Z ) − log ⁡ q φ ( Z ∣ x i ) ) ⋅ ∇ φ g φ ( ε ∣ x i ) ] \begin{align} \nabla_\varphi {\mathcal L}(\varphi) = E_{p(\varepsilon)} \left[ \nabla_Z (\log {P_\theta(x_i, Z)} - \log {q_\varphi}(Z|x_i)) \cdot \nabla_\varphi g_\varphi(\varepsilon|x_i) \right] \end{align} φL(φ)=Ep(ε)[Z(logPθ(xi,Z)logqφ(Zxi))φgφ(εxi)]
若通过MC对以下对象进行采样,就不会有问题:
ε ( l ) ∽ p ( ε ) , l ∈ [ 1 , L ]    ⟹    ∇ φ L ( φ ) ≈ 1 L ∑ l = 1 L [ ∇ Z ( log ⁡ P θ ( x i , Z ) − log ⁡ q φ ( Z ∣ x i ) ) ⋅ ∇ φ g φ ( ε ∣ x i ) ] \varepsilon^{(l)} \backsim p(\varepsilon), l \in [1, L] \implies \nabla_\varphi {\mathcal L}(\varphi) \approx \frac{1}{L} \sum_{l=1}^L \left[ \nabla_Z (\log {P_\theta(x_i, Z)} - \log {q_\varphi}(Z|x_i)) \cdot \nabla_\varphi g_\varphi(\varepsilon|x_i) \right] ε(l)p(ε),l[1,L]φL(φ)L1l=1L[Z(logPθ(xi,Z)logqφ(Zxi))φgφ(εxi)]
公式中的 Z Z Z都可以通过 g φ ( ε ∣ x i ) g_\varphi(\varepsilon|x_i) gφ(εxi)求得。

所以SGVI的核心方式还是通过梯度上升的方式进行迭代,但要使用参数重构方法降低计算难度:
φ = φ + S t e p ⋅ ∇ φ L ( φ ) \varphi = \varphi + Step \cdot \nabla_\varphi {\mathcal L}(\varphi) φ=φ+StepφL(φ)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/27822.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

.mdf.locked加密sql server完美恢复---惜分飞

有可能用友ERP软件的sql server 数据库所在机器被勒索病毒加密,扩展名为.locked和昨天恢复的基本类似(.locked加密勒索数据库级别恢复),通过分析确认sql server被这种病毒加密,也可以完美恢复 通过恢复之后数据库正常挂载成功 测试应用一切正常 对于类似这种被加密的勒索的数…

Hazel游戏引擎(010)预编译头

文中若有代码、术语等错误,欢迎指正 文章目录 前言如何实现 前言 此节目的 由于项目中的头文件或者cpp文件都包含着c的头文件,有些重复,可以将它们包含的c头文件放在一个头文件内,这样不仅使代码简洁,而且预编译头可以…

chatgpt赋能python:Python如何取消空格提升SEO排名

Python如何取消空格提升SEO排名 作为一种高效的编程语言,Python已经成为了许多网站开发人员和SEO优化人员的首选工具。在网站优化中,取消空格是一个重要的优化技术,它可以提升网站速度,提高网站体验,同时也可以提升SE…

前后端交互二、form表单与模板引擎

零、文章目录 前后端交互二、form表单与模板引擎 1、form表单的基本使用 HTML相关知识请参考HTML入门 &#xff08;1&#xff09;表单是什么 表单在网页中主要负责数据采集功能。HTML中的<form>标签&#xff0c;就是用于采集用户输入的信息的&#xff0c;并通过<…

【EasyX】实时时钟

目录 实时时钟1. 绘制静态秒针2. 秒针的转动3. 根据实际时间转动4. 添加时针和分针5. 添加表盘刻度 实时时钟 本博客介绍利用EasyX实现一个实时钟表的小程序&#xff0c;同时学习时间函数的使用。 本文源码可从github获取 1. 绘制静态秒针 第一步定义钟表的中心坐标center&a…

操作系统1-操作系统的基本特征和主要功能

目录 1、操作系统的目标和作用 &#xff08;1&#xff09;操作系统的目标 &#xff08;2&#xff09;操作系统的作用 2、操作系统的发展过程 &#xff08;1&#xff09;未配置操作系统的计算机系统 &#xff08;2&#xff09;单道批处理系统(Simple Batch Processing Sys…

Task Add-in Sample (C#)

下例显示了用 C# 编写Task Add-in 的完整源代码。 使用 C# 类库 &#xff08;.NET Framework&#xff09; 创建 Visual Studio 中的项目。实现 IEdmAddIn5。在“任务属性”对话框中创建自定义页。自定义任务详细信息页面。 注意&#xff1a; 若要填充下面的 GUID 属性&#x…

软考A计划-系统架构师-学习笔记-第三弹

点击跳转专栏>Unity3D特效百例点击跳转专栏>案例项目实战源码点击跳转专栏>游戏脚本-辅助自动化点击跳转专栏>Android控件全解手册点击跳转专栏>Scratch编程案例点击跳转>软考全系列 &#x1f449;关于作者 专注于Android/Unity和各种游戏开发技巧&#xff…

Redis 持久化机制

Redis 是个基于内存的数据库。那服务一旦宕机&#xff0c;内存中数据必将全部丢失。所以丢失数据的恢复对于 Redis 是十分重要的&#xff0c;我们首先想到是可以从数据库中恢复&#xff0c;但是在由 Redis 宕机时&#xff08;说明相关工作正在运行&#xff09;且数据量很大情况…

上课补充的知识

题目 char类型的默认值是\u0000 数组的创建方式 数组的遍历 遍历:从头到尾,依次访问数组每一个位置,获取每一个位置的元素.形式如下: 我们通过数组的下标操作数组,所以for循环变量操作的也是数组下标 开始:开始下标0 结束:结束下标length-1 如何变化: 语法&#xff1a; for…

软考A计划-系统架构师-学习笔记-第二弹

点击跳转专栏>Unity3D特效百例点击跳转专栏>案例项目实战源码点击跳转专栏>游戏脚本-辅助自动化点击跳转专栏>Android控件全解手册点击跳转专栏>Scratch编程案例点击跳转>软考全系列 &#x1f449;关于作者 专注于Android/Unity和各种游戏开发技巧&#xff…

【java】IO流

IO流 原理 分类 字节流与字符流 节点流与包装流 Java IO详解&#xff08;五)------包装流 - YSOcean - 博客园 (cnblogs.com)JAVA I/O流 字符流和字节流、节点流和处理流(包装流、过滤流)、缓冲流_过滤流和缓冲流,字节流的关系_X-Dragon烟雨任平生的博客-CSDN博客 字符流 i…

Redis常见问题、各个分布式锁优缺点-05

Redis集群为什么至少需要三个master节点&#xff0c;并且推荐节点数为奇数&#xff1f; 因为新master的选举需要大于半数的集群master节点同意才能选举成功&#xff0c;如果只有两个master节点&#xff0c;当其中一个挂了&#xff0c;是达不到选举新master的条件的。 奇数个ma…

【Linux】 -- TCP协议 (一)

TCP协议 Tcp协议可靠性冯诺依曼体系结构 TCP的协议格式序号与确认序号窗口大小六个标志位 确认应答机制 &#xff08;ACK&#xff09;超时重传机制连接管理机制 Tcp协议 TCP全称为 “传输控制协议”&#xff08;Transmission Control Protocol&#xff09; TCP协议被广泛应用…

C语言---形参所导致的段错误

前言 今天刷B站&#xff0c;无意之间看到一个宣称90%人都会错的嵌入式面试题。感兴趣就看了一下。卡了十多分钟才想明白&#xff0c;只是一个小知识点&#xff0c;但还是分享一下。 题目 #include <stdio.h> #include <stdlib.h> #include <string.h>void g…

信道编码的基本概念

本专栏包含信息论与编码的核心知识&#xff0c;按知识点组织&#xff0c;可作为教学或学习的参考。markdown版本已归档至【Github仓库&#xff1a;https://github.com/timerring/information-theory 】或者公众号【AIShareLab】回复 信息论 获取。 文章目录 信道编码信道编码的…

Spring,注解开发

Spring是一个轻量级的控制反转&#xff08;IOC&#xff09;和面向切面编程&#xff08;AOP&#xff09;的框架 1、组成 spring七大模块详解 2、IOC理论推导 传统的开发 (pojo层、DAO层和业务层&#xff09; &#xff08;1&#xff09;UserDao &#xff08;2) UserDaoImpl (3)…

CSS基础学习--5 background背景

一、介绍&#xff1a; CSS 背景属性用于定义HTML元素的背景。 CSS 属性定义背景效果: background-color 背景颜色background-image 背景图片background-repeatbackground-attachmentbackground-position 二、属性 2.1、background-color 属性定义了元素的背景颜色 <s…

位图以及布隆过滤器

本文主要讲解哈希思想的实际应用&#xff0c;位图和布隆过滤器。 位图 讲解位图之前我们先来解答这样一道腾讯的面试题 给40亿个不重复的无符号整数&#xff0c;没排过序。给一个无符号整数&#xff0c;如何快速判断一个数是否在这40亿个数中。【腾讯】 很多人立马就想到了用…

【零基础学机器学习 5】机器学习中的分类:什么是分类以及分类模型

&#x1f468;‍&#x1f4bb; 作者简介&#xff1a;程序员半夏 , 一名全栈程序员&#xff0c;擅长使用各种编程语言和框架&#xff0c;如JavaScript、React、Node.js、Java、Python、Django、MySQL等.专注于大前端与后端的硬核干货分享,同时是一个随缘更新的UP主. 你可以在各个…