对比学习(contrastive learning)是现在无监督学习中一种常用的学习机制,它可以在没有标签的数据上进行学习,避免依赖大量标签数据,从而帮助我们更好地理解和利用数据集中的信息,提高模型的性能和表现。
作为机器学习的新宠,对比学习给CV、NLP、推荐系统领域都带来了极大的福音,在图像识别、语音识别、自然语言处理等现实场景中的无监督学习任务中起到了非常重要的作用,自然也成为了各大顶会争相投稿的热门方向。
今年,业内人士针对对比学习的研究热情依然不减。为了方便同学们学习,我这次整理了15篇各大顶会中对比学习相关的论文分享。
需要论文及源码的同学看文末
2023
1.MixCon3D: Synergizing Multi-View and Cross-Modal Contrastive Learning for Enhancing 3D Representation(ICLR’24)
协同多视图和跨模态对比学习增强3D表示
简述:这篇论文介绍了一种新的3D对比学习方式,名为MixCon3D。它结合了2D图像和3D点云的信息,以提高对比学习的效果。通过整合多视图的2D图像,MixCon3D可以更准确、更全面地描述现实世界的3D物体,并增强文本对齐。
2.LightGCL: Simple Yet Effective Graph Contrastive Learning for Recommendation(ICLR’23)
简单而有效的推荐图对比学习
简述:这篇论文提出了一种新的图对比学习方法LightGCL,用于提高推荐系统的性能。这种方法相对于现有的方法更简单、更有效。它通过使用奇异值分解进行对比增强,可以更好地保留图的结构和语义信息,并且对噪声的干扰具有更高的鲁棒性。
3.Multi-Intention Oriented Contrastive Learning for Sequential Recommendation(WSDM’23)
序列中的多意图对比学习
简述:这篇论文提出了一个名为IOCRec的新框架,用于解决序列推荐中的数据稀疏性和噪声问题。该框架使用对比学习,通过选择用户的主要意图来降噪,并创建高质量的意图级别视图。它融合了本地和全局意图,以统一序列模式和意图级别的自我监督信号。
4.SGCCL: Siamese Graph Contrastive Consensus Learning for Personalized Recommendation(WSDM’23)
用于个性化推荐的暹罗图对比共识学习
简述:这篇论文提出了一种名为SGCCL的推荐系统框架,该框架使用对比学习来探索用户和物品之间的内在关系,并缓解了偏见效应。与现有的基于增强的对比学习方法不同,SGCCL引入了相似性的用户-用户和物品-物品关系,并通过对比共识优化过程来学习有效的特征。
5.Heterogeneous Graph Contrastive Learningfor Recommendation(WSDM’23)
基于异构图的对比学习
简述:这篇论文提出了一种新的推荐系统框架HGCL,该框架使用异构图神经网络(GNNs)来建模用户和物品之间的异构关系,并利用对比学习来增强推荐性能。HGCL能够将不同类型的关系语义纳入用户-物品交互建模,并利用元网络实现个性化知识转换器,以适应不同用户和物品之间的异构信息。
6.Knowledge-Adaptive Contrastive Learning for Recommendation(WSDM’23)
用于推荐的知识自适应对比学习
简述:这篇论文提出了一种推荐系统新算法KACL,旨在解决现有方法在利用知识图谱(KG)信息方面的不足。KACL通过对比学习,使物品表示能够编码两个视图共享的信息,从而缓解了交互支配问题。此外,KACL还引入了两个可学习的视图生成器,以自适应地删除与任务无关的边,帮助容忍知识过载带来的噪声。
7.CL4CTR: A Contrastive Learning Framework for CTR Prediction(WSDM’23)
用于CTR预测的对比学习框架
简述:许多CTR预测模型专注于设计先进架构来模拟复杂特征交互,但忽视了特征表示学习的重要性。例如,他们可能只是简单地为每个特征使用一个普通的嵌入层,这导致特征表示不够好,从而影响CTR预测性能。为了解决这个问题,作者引入了自监督学习来直接产生高质量的特征表示,并提出了一个名为CL4CTR的对比学习框架。这个框架包含三个自监督学习信号,用于规范特征表示学习:对比损失、特征对齐和领域均匀性。这个框架可以与各种基线模型兼容,并且在四个数据集上实现了最佳性能。
8.Understanding Contrastive Learning via Distributionally Robust Optimization(NIPS’23)
从分布鲁棒优化理解对比学习
简述:这项研究探讨了对比学习如何处理相似语义的负样本,并填补了现有理论在解释这一现象上的空白。通过分析对比学习,发现它实际上是在负采样分布上进行分布稳健优化,这使得对比学习在各种可能的分布上表现出色,并对采样偏差具有稳健性。此外,温度参数的设计起着调节潜在分布集大小的作用。本研究还建立了分布稳健优化和互信息之间的联系,并提出了一种新的损失方法来缓解对比学习的潜在缺点,从而提高性能和加速收敛。
9.Relational Contrastive Learning for Scene Text Recognition(ACM MM ’23)
用于场景文本识别的关系对比学习
简述:作者提出了一种新的方法RCLSTR,用于场景文本识别。这个方法通过重新排列、层次结构和交互来丰富文本关系,从而提高了表示的鲁棒性。此外,该方法从理论上解释了如何抑制由上下文先验引起的偏差,从而保证表示的鲁棒性。实验结果表明,作者的方法优于现有的自监督场景文本识别方法。
2022
1.Improving Graph Collaborative Filtering with Neighborhood-enriched Contrastive Learning(WWW’22)
利用邻域增强的对比学习改进图形协同过滤
简述:这篇文章讲了一种新的对比学习方法,叫NCL,用来改进图形协同过滤,缓解数据稀疏性问题。这种方法把用户和物品的邻居也考虑进来,让它们一起参与对比学习。这种方法不仅考虑了用户和物品之间的交互关系,还考虑了它们在语义空间中的相似性,从而更好地利用了潜在的邻居关系。
2.Intent Contrastive Learning for Sequential Recommendation(WWW’22)
面向序列推荐的意图对比学习
简述:论文讨论了如何利用用户的潜在意图来改进序列推荐。用户与物品的互动是由意图驱动的,但这些意图通常隐藏,很难用于推荐。因此,作者提出了一种新的学习范式,称为意图对比学习(ICL),它通过无标签用户行为序列来学习用户的意图分布,并使用对比自我监督学习来优化推荐模型。通过引入潜在变量表示用户的意图,并使用聚类学习其分布。然后,将学到的意图用于推荐模型,通过对比学习来提高性能和鲁棒性。
3. A Review-aware Graph Contrastive Learning Framework for Recommendation(SIGIR’22)
一个支持评论的推荐图对比学习框架
简述:论文提出了一个新的基于评论的图对比学习框架。首先,作者构建了一个具有增强边缘特征的用户-物品图,每个边缘特征由用户-物品评级和评论语义组成。这个图有助于集中学习每个邻居节点的权重。然后,作者设计了两项额外的对比学习任务,为推荐过程中的两个组件提供自监督信号。实验表明,与现有最佳方法相比,该框架更优越。
4. Multi-level Cross-view Contrastive Learning for Knowledge-aware Recommender System(SIGIR’22)
知识感知推荐系统的多层次视图交叉对比学习
简述:本文提出了一种新的多层次跨视图对比学习机制,称为MCCLK,用于知识感知推荐。这种方法考虑了不同的图视图,包括全局结构视图、局部协作视图和语义视图,并在这些视图之间进行对比学习。此外,作者还提出了一种新的方法来构建项目之间的语义关系图。实验表明,这种方法优于现有的推荐方法。
5. Multi-view Intent Disentangle Graph Networks for Bundle Recommendation(AAAI’22)
多角度意图分解图网络的捆绑推荐
简述:捆绑推荐是推荐多个物品给用户,现有模型无法很好处理用户意图多样性。论文提出了一种新模型MIDGN,可以从全局和局部两个视角解耦用户意图,并利用对比学习提高效果。实验证明,MIDGN比现有方法更能提高推荐质量。
6.A Contrastive Framework for Neural Text Generation(NeurIPS’22)
神经文本生成对比框架
简述:神经文本生成是自然语言处理的重要应用,但现有的基于最大化的解码方法常常导致生成的文本不自然且重复。论文提出了一种新的对比解决方案,通过对比训练目标和解码方法,保持文本的多样性和连贯性。实验证明,该方法显著优于现有的最先进文本生成方法。
关注下方《学姐带你玩AI》🚀🚀🚀
回复“对比学习”领取全部论文及源码
码字不易,欢迎大家点赞评论收藏!