编码器+解码器=自编码器
先压缩特征,再通过特征还原。
判断还原的和原来的是否相等
encode data 在一个“潜在空间”里。它的用途是“深度学习”的核心-学习数据的特征并简化数据表示形式以寻找模式。
变分自编码器:
1.
首先、假设输入数据是符合正态分布的(大部分正常的数据都集中在99.7%中),即不同的数据都能提取出不同的σ和μ这两个正态分布特征值。然后在这2个参数构成的正态分布函数中进行抽样sample再解码,就能得到和原来输入中其他数据相似的数据。
在进行对比,反向优化。
流程图:
为了让隐空间的新分布和原分布很相似,然后再对拟合出的新分布抽样出新的数据(这些数据包含了原数据的大量特征),就可以当作是原数据了。
损失函数:
KL散度:衡量两个分布的相似度