无监督的Loss Function(无监督的目标函数)
- 根据有无标签,可以将模型的学习方法分为:无监督、有监督两种。而自监督是无监督的一种
- 无监督的目标函数可以分为以下几种:
- 生成式网络的做法,衡量模型的输出和固定的目标之间的差距,主要考虑输入数据是怎么分布的,即 “给定Y,如何生成X”。如auto-encoder:输入一张干扰过的图,通过编码器-解码器,然后得出一张还原后的图,通过对比原图和生成的还原后的图之间的差异
- 判别式网络的做法,衡量模型的输出和固定的目标之间的差异,主要考虑输入和输出的映射关系,不考虑输入数据是怎么分布的,即 ”给定X,预测Y“ 。如eight positions:将一张输入图片分成九宫格,按顺序标好序号,并给中间的5号格,然后随机在剩下的格中挑一个,预测出这个随机的格是在中间格的哪一个方位
- 对比学习的做法:在一个特征空间中,衡量各个样本对之间的相似性,从而达到,相似的物体之间的特征尽量接近,不相似的物体之间的特征尽量远,如有三张图片,两张人和一张狗,对比学习只需要区分出两张人的图片是相似的,一张狗的图片是单独的即可,而不需要区分出它们分别是人和狗。对比学习和生成式网络、判别式网络的区别:后两者的目标都是固定的目标(找到一个能很好表示原图像,或输入图像的特征空间,这个特征空间是固定的),但是对比学习的目标是在训练过程中不断改变。(不断优化特征空间,来让正样本对更加接近,负样本对更加远离)
- 对抗学习的做法:衡量两个概率分布之间的差异,即生成数据分布和真实数据分布的差异。对抗学习包含两个模型:生成模型和判别模型。生成模型的任务是尽可能生成接近真实数据分布的数据样本,判别模型的任务是区分输入的样本是真是数据集还是来自生成模型的。对抗学习可以用来做无监督数据生成,特征学习。
代理任务
- 如果有一个输入X,通过一个模型,得到Y
- 那么在有监督学习中,我们是通过真实值GT和Y进行比较,并通过一个目标函数(Loss Function)来衡量这个比较的结果
- 在无监督学习中,由于没有GT的存在,那么就需要自己造一个GT。主要是通过代理任务来生成一个自监督的信号,用来充当GT,之后仍然是将GT和Y进行比较,并通过一个目标函数(Loss Function)来衡量这个比较的结果