论文阅读 - Pre-trained Online Contrastive Learning for Insurance Fraud Detection

 Pre-trained Online Contrastive Learning for Insurance Fraud Detection| Proceedings of the AAAI Conference on Artificial Intelligence

目录

摘要

Introduction

Methodology

Problem Formulation

Pre-trained Model for Enhanced Robustness

Detecting Network and Task Learning

Online Learning and Forgetting Control

数据集

Experimental Results

 Ablation Experiment


claim(根据医疗保健系统报告的事实,38.1% 被标记为欺诈)

摘要

        医疗保险欺诈一直是医疗行业领域面临的严峻挑战。

        现有的欺诈检测模型大多集中于离线学习场景。

        然而,欺诈模式不断演变,使得基于过去数据训练的模型很难检测新出现的欺诈模式,这对医疗欺诈检测提出了严峻的挑战。

        此外,当前的增量学习模型主要是为了解决灾难性遗忘而设计的,但在欺诈检测中往往表现出次优的性能。

        为应对这一挑战,本文提出了一种用于医疗保险欺诈检测的创新在线学习方法,命名为 POCL。

        这种方法结合了对比学习预训练和在线更新策略

对比学习预训练

        在预训练阶段,利用对比学习预训练来学习历史数据,从而实现深度特征学习并获得丰富的风险表征。

在线更新策略

        在在线学习阶段,采用了 “时间记忆感知突触”(Temporal Memory Aware Synapses)在线更新策略,允许模型根据不断涌现的新数据进行增量学习和优化

        这可以确保及时适应欺诈模式,减少对过去知识的遗忘。

        模型在现实世界中的余额欺诈数据集上进行了广泛的实验和评估。结果表明,与最先进的基线方法相比,模型在准确性方面具有显著优势,同时还能降低运行时间和空间消耗。

        源代码发布于 https://github.com/finint/POCL。

Introduction

背景介绍

        医疗保险欺诈严重危害社会,日益引起公众的关注。

        2017 年,美国在医疗保健方面的支出达到了惊人的 3.5 万亿美元(Sisko 等,2019 年),其中超过 20% 或 7200 亿美元(Cubanski、Neuman 和 Freed,2019 年)用于医疗保险。

        然而,在这些巨额支出中,欺诈组织和个人找到了可乘之机。

        研究表明,令人震惊的是,3-10% 的医疗保险基金(Morris,2009 年),相当于 210- 700 亿美元,因欺诈活动而被浪费。这些欺诈行为不仅增加了医疗保健系统的运营成本,而且还造成了医疗保险基金的损失、但也给消费者造成负担。这些行为的后果在全社会引起反响,强调了打击保险欺诈的紧迫性。

        此外,医疗保险欺诈手段也在不断演变(Thornton 等人,2013 年)。欺诈者随机应变,设计出越来越多的秘密策略,以减少被发现的风险(Timofeyev 和 Jakovljevic,2022 年)。这种不断演变的策略加剧了欺诈检测的挑战。

        当代的静态医疗保险欺诈检测系统并不适合这种情况(Thornton 等人,2013 年),它忽略了许多会造成巨大损失的欺诈活动。

        这就强调了设计一个具有快速适应性和在线学习能力的医疗保险验证系统的必要性。

相关工作

        欺诈检测由来已久,其起源可追溯到 20 世纪 80 年代的研究(McDowell,1987 年)。传统方法通常围绕基于规则的方法展开,如(Dua 和 Bais,2014 年)所描述的那样,或者拥抱机器学习领域,如(Fiore 等人,2019 年)的工作所证明的那样。这些方法因其在欺诈检测方面的功效而备受关注。与此同时,随着深度学习方法在更广泛的科学界获得认可,它们开始被应用于欺诈检测领域,开创了复杂检测机制的新时代,例如(Roy 等人,2018 年)。

        Dou 等人,2020 年;Cheng 等人,2023 年;Ma 等人,2023 年;Gao 等人,2023 年)等研究成果强调了图神经网络(GNN)学习复杂关系和模式的能力,从而标志着这种方法在提升欺诈检测水平方面的巨大潜力。不过,上述模型主要是针对线性学习范式的

        将这些方法直接应用于在线学习往往会导致次优结果重新训练一个完整的模型以规避这些限制(Lebichot 等人,2020 年)往往会带来巨大的挑战,因为这需要大量的计算和时间资源(Wu、Dobriban 和 Davidson,2020 年)。

相近工作

        幸运的是,近年来出现了各种采用渐进式或在线学习的欺诈检测模型。值得注意的是,在特定的动态环境中,这些模式已显示出令人称道的功效。例如,(Sadreddin 和 Sadaoui,2022 年)利用创新的适应性学习方法,将迁移学习与渐进学习结合起来。

        Anowar and Sadaoui 2021) 专为打击拍卖欺诈而设计的基于区块的增量学习框架,而(Bayram、Koro˘glu 和 Göonen 2020)则采用梯度提升树,解决信用卡欺诈的动态细微差别。尽管如此,这些方法仍然存在局限性。首先,当前的技术往往忽视了欺诈模式固有的复杂的结构和时间细微差别。其次,考虑到金融背景下严格的数据存储限制,历史数据变得不可行。

提出方法

        为了应对这些挑战,在本研究中,提出了预训练在线对比学习模型(POCL),这是一种专为医疗保险欺诈检测而定制的创新在线学习图神经网络。首先,将历史数据集分为正向和负向医疗节点图。通过对比这两种类型的图之间的差异来预训练上游模型。正如(Le-Khac、Healy 和 Smeaton 2020)所述,对比学习是发现复杂模式的强大工具,从而提高欺诈检测的精度。

        同时,经验观察表明,该模型能够熟练地将不断演变的欺诈特征投射到一致的空间中,这可以降低更新的难度并降低遗忘的可能性。接下来,引入下游欺诈检测网络,并将其与预训练模型相结合,创建端到端欺诈检测模型。在在线学习场景中,使用一种新颖的时间记忆感知突触(MAS)(Aljundi et al. 2018)方法来更新模型。该方法结合了时间特征并计算每次更新的参数的重要性权重。通过使用动量技术来整合历史重要性权重,该方法在不存储任何历史数据的情况下确定更新期间忘记和保留参数的程度。总而言之,工作有以下贡献:

        这是第一个在保险欺诈检测领域引入在线学习模型的工作。该模型巧妙地融合了结构特征,不断适应不断发展的欺诈模式范式。

         • 提出了一种基于对比学习预训练的新型在线学习GNN 模型。该模型与 Temporal MAS 方法配合使用时,可以准确识别欺诈性索赔,并显着减少忘记先前学到的知识的发生。

         • 通过对现实世界的医疗保险欺诈数据集进行广泛的实验,证明了模型在长时间的在线更新过程中具有令人印象深刻的准确性。此外,模型始终表现出较低的时间和空间复杂度。

Methodology

        如图1所示,模型的流程可以分为三个阶段:预训练、任务学习和在线学习。在本节中,首先制定问题。然后,在预训练阶段,将介绍预训练的模型及其优化策略。在任务学习阶段,将描述如何结合预训练模型和任务学习模型来训练离线模型。最后,在在线学习阶段,将介绍Temporal MAS在线更新方法,用于确定变量的变化程度。

Problem Formulation

        在在线医疗欺诈检测中,将医疗图定义为G(C,E), C = (h_1,...,h_{N_C}), 表示一组医疗图,其中每个医疗claim的特征是h_i, E=(e_1,...,e_N)代表claim之间的边缘,其中两个相关claim具有相同的医疗提供者或受益人.这里,N_C是claim的数量,N是图中的边的数量。

        . 在在线学习场景中,给定两部分数据:历史数据集G_h = (G^1_h,...,G^T_h),在线学习数据集 G_O = (G^1_o,..., G^T_O), 目标是学习(\theta _0,..., \theta _T),\theta _0是基于整个历史数据集G_h使用传统训练方法训练的GNN的参数,而参数\theta _t,接受在线学习数据G^t_O的训练,特别是,它是基于\theta _{t-1} 的参数,使用在线学习方法进行增量训练的。

        希望在不重新训练整个模型的情况下,尽可能保持模型 θ 的准确性,并期望它能检测到某些模式发生变化的情况。

Pre-trained Model for Enhanced Robustness

        在预训练阶段,将医疗claim图 G 中的claim划分为两个集合:正集 h_p 和负集 h_n。随后,使用数据集提供的方案在两个图中构建边。通过这样做,创建了两个不同的图:正图G_p和负图G_n.然后使用这两个图来训练预训练模型\theta _{pre}

        使用 GraphSAGE(Hamilton、Ying 和 Leskovec,2017 年)作为预训练模型,其中第 k 层的去细化为:

         然后获得模型更新的两个特征嵌入:

h_p' = F_{\theta _{pre}}(h_p)h_n' = F_{\theta _{pre}}(h_n)这将用于欺诈检测。

        参考(Veliˇckovi´c et al. 2019),使用二元交叉熵损失函数来帮助识别欺诈模式:

        损失函数旨在有效区分正面和负面实例,使模型能够专注于学习与医疗欺诈相关的特定模式。它可以在特征空间中将具有相同标签的节点相互拉近,将不同标签的节点推开,使模型能够关注相似节点之间的关系,并找到欺诈节点和非欺诈节点的差异。

Detecting Network and Task Learning

        预训练模型的输出修改特征矩阵而不是进行预测,在下游任务中,使用GAT(Veliˇckovi´c 等人,2018 年)网络 \theta _{detect} 作为检测网络,其中第 k 层的注意力系数计算公式如下:

         获得节点之间的注意力系数后,将 GAT 的第 k 层定义为:

        然后,将预先训练好的模型与检测网络相结合,创建一个端到端的模型。

        使用历史数据集 G_h 训练整个模型,包括训练检测模型 \theta _{detect} 和微调预训练模型 \theta _{pre}。然而,在这一步骤中出现了一个关键挑战--确保预训练网络能够从标签中学习,同时θpre 不会遗忘已经获得的宝贵信息。为了解决这个问题,提出了一种新的损失函数,它能有效减轻灾难性遗忘。在标准交叉熵损失函数的基础上,引入了一个惩罚项

所以总损失 L_{detect}为:

         其中,h_{p_{pre}}' 是预训练模型 F_{\theta _{pre}}(h)输出的正向部分,h_{n_{pre}}' 是负向部分。修正二元交叉熵损失建立在公式 2 中之前提到的 BCE 损失 Lpre 的基础上。通过在损失函数中加入惩罚项 P,激励预训练网络 θpre 保留其先前学习到的特征,同时帮助整个模型从新数据中学习。这种方法确保了学习过程的平衡,防止模型过度重视新数据而遗忘了在预训练阶段获得的重要信息

Online Learning and Forgetting Control

        在线学习法。为了在不重新训练整个模型的情况下应对不断变化的欺诈模式,采用了在线学习方法来逐步更新模型。由于金融场景的独特性,每次只能访问 G_O 在线数据集的一部分。在 t 时刻,模型可以表示如下:

         这里,\hat{p}_t 表示预测的欺诈可能性,F_{\theta _{detect}^{t-1}}表示预先训练的模型函数,F_{\theta _{pre}^{t-1}}是 t - 1 时间的模型函数。这些函数从时间 1 到 t - 1 收集的数据中学习。

        时间 MAS 方法。在医疗保险欺诈检测场景中,观察到新的欺诈模式与现有模式同时出现。这意味着,不及时学习新模式或遗忘旧模式都会导致准确率下降。为了控制在线学习期间学习和记忆的内容,设计了一种基于 MAS 的新方法(Aljundi 等人,2018 年),称为时态 MAS。

        首先,与其他增量学习或在线学习方法相比,这种方法不需要存储历史数据,而这对模型至关重要。它的时间效率非常高,因为它只需要计算每个参数的梯度并将其合并,从而产生固定的空间和时间开销。

        此外,它还利用了医疗保险欺诈检测中欺诈模式不断演变的特性。通过使用 “动量 ”方法将历史重要性权重和单个任务重要性权重结合起来,该模型在学习新欺诈模式的同时实现了遗忘和保留知识之间的平衡。这使得该模型能够适应欺诈模式随时间的变化,使其在检测医疗欺诈时更加稳健有效。

        首先,需要计算单一图形中模型参数的重要性权重。在这里,使用每个参数的梯度作为当前任务的重要性权重。这是因为梯度越大,表明修改特定参数对模型输出的影响越大,从而更容易发生灾难性遗忘:

        其中,h_k 是图特征,δ 是参数 θ 的微小变化。使用梯度来计算这些重要性权重

        在医疗保险欺诈检测在线学习方面,新的欺诈模式会逐渐出现,并可能取代旧的模式。仅仅将多个图的重要性权重相加是不够的。

        为了解决这个问题,采用了 “动量 ”的概念,即考虑重要性权重的变化趋势,并逐渐重视之前权重的重要性。通过融入动量思想,可以随着时间的推移自适应地调整重要性权重,让模型逐渐遗忘那些长期未出现的相关性较低的模式。这种自适应机制确保模型能够不断学习和适应新的欺诈模式,同时仍能保持遗忘过时信息的能力。通过以下方法计算调整后的重要性权重:

        其中,λ 是动量参数,\Omega _t 是图 G_t 的重要性权重。

        计算全局重要性权重后,将其作为惩罚项纳入损失函数 L、

数据集

        为了评估模型在现实世界医疗保险欺诈检测中的有效性,利用了医疗欺诈数据集(Ma 等人,2023 年)。这个广泛的医疗保险数据集包含真实世界中约 20 万受益人、5000 多家医疗服务提供商和约 55 万份医疗保险索赔的信息其中约 38.1% 的claim被识别并标记为欺诈性索赔。该数据集最珍贵的部分是由专家注释的细致欺诈标签和时间戳。因此,它具有典型性和权威性。

(在与美国国家医疗安全管理局(NHSA)的合作领域专家对数据集进行深入分析后,发现许多欺诈活动涉及多个组织方,即所谓的共谋欺诈。然后,NHSA 的反欺诈专家对这些组织化欺诈标签进行了详细注释。他们通过多年打击欺诈者的领域专业知识来判断claim是否涉及有组织欺诈。根据医疗保险程序中的有组织欺诈标准和数据集中现有的欺诈标签,每条记录都会被标注上两个欺诈标签,表明是个人欺诈还是有组织欺诈。下表 报告了数据集的详细统计数据,包括住院和门诊报销单。)

        在评估过程中,选择了一年的数据,随后构建了许多不同的医疗claim图,每个图代表一天。其中,最初的 15 天保留为历史数据集,其余为在线学习数据集

        为确保一致性,每个模型都在这个全面的历史数据集上进行训练,以创建离线模型。

        在在线学习阶段,模型会随着在线学习数据集的逐步引入而动态调整。理想情况下,在这一阶段,每个模型在任何时间点都只能访问在线学习数据集的特定部分。

        不过,为了反映真实世界的场景和实际限制,允许某些模型保留或重新访问先前图中的全部信息

        此外,为了更深入地分析实验模型在不同欺诈场景中的有效性,选择了两个常见的欺诈检测数据集--亚马逊(McAuley 和 Leskovec,2013 年)和 YelpChi(Rayana 和 Akoglu,2015 年)--进行了一系列实验。这些实验通过模拟时间戳来生成相应的在线数据,从而模拟真实的用户行为和交易过程。

        OnlineGNN:该模型特别关注在线学习场景,它不断地从传入数据中学习,而无需重新访问历史数据。

        RetrainGNN: 只要引入新数据,该模型就会重新训练。它会丢弃以前的知识,以随机权重开始训练整个数据。

        OfflineGNN:该模型仅在整个历史数据集上进行训练,在线学习阶段不会接触任何新数据。

        ERGNN(Zhou and Cao 2021):该模型使用经验回放来连续学习一系列任务,解决灾难性遗忘问题。

        FGN(Wang et al. 2022a):该模型通过将持续图学习转换为常规图学习,在图学习和终身学习之间架起桥梁。

        ContinuesGNN (Wang 等,2020 年): 该模型基于持续学习,通过数据重放和模型正则化来学习和保持模式。

        CAREGNN(Dou 等人,2020 年): 该模型使用多关系图来检测欺诈行为,重点打击使用伪装的作弊者(cheaters)。

        PCGNN (Liu 等,2021 年): 该模型使用挑选法解决金融关系拓扑图中类别不平衡的问题.

Experimental Results

        将模型与先进的基线模型进行了全面比较。如图 2(a) 和 2(c) 所示,模型表现出极高的月平均准确率。

(比较不同欺诈检测方法在医疗欺诈数据集中一年内在线学习的平均月准确率和平均准确率下降率。平均准确率下降率分为前六个月和后六个月。)

        而表 1 则展示了医疗欺诈数据集上其他评估指标的骄人成绩。

        在使用模拟时间进行实验的其他数据集上,选择了几个表现最好的基线进行实验。如图 3 所示,这些实验显示了与医疗欺诈数据集类似的趋势。实验结果表明,模型在月平均准确率方面几乎达到了 RetrainGNN 的水平,比其他基线模型高出 1%-4%。

 Ablation Experiment

        POCL w/o OL:删除了 Temporal MAS 部分,并采用预先训练的对比学习部分,并在在线阶段中直接更新参数。

        POCL w/o PCL:删除了预先训练的对比学习部分,并使用普通的GraphSAGE 代替,使用Temporal MAS 来更新整个模型。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/903324.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【STM32】程序建立模板

文章目录 STM32的开发方式建立基于库函数的工程建立工程的具体步骤具体程序举例工程架构 本篇介绍如何建立一个STM32工程 STM32工程结构比较复杂,需要用到的文件很多,并且程序代码也都是建立在工程结构的基础之上,所以学习如何新建一个STM32工…

Oracle视频基础1.1.4练习

1.1.4 dbb,ddabcPMON,SMON,LGWR,CKPT,DBWna5,b4,c2,d3,e1ad,a,c,b,eOracle instance,Oracle databaseSGA,background processcontrol file,data file,online redo file 以下是一篇关于 Oracle 基础习题 1.1.4 的博客: Oracle 基础习题解析:1.1.4 本篇文…

UE5 喷射背包

首选创建一个输入操作 然后在输入映射中添加,shift是向上飞,ctrl是向下飞 进入人物蓝图中编写逻辑,变量HaveJatpack默认true,Thrust为0 最后

linux进程的状态

​​​​​​​linux进程的概念 上篇我们学习了进程的概念,这篇我们将学习进程的状态 目录 前言 一、子进程和父进程 1、pid和ppid 2、通过系统调用创建进程-fork初识 二、进程的状态 1.Linux内核源代码 2.进程状态查看 3、Z(zombie)-僵尸进程 ​编辑 僵尸…

Linux下docker中elasticsearch与kibana的安装

他的脸红不是因为亚热带季风气候,而是因为那天太阳不忠,出卖一九九四年夏末心动。–《太平山顶》 在本篇博客中,我将详细介绍如何在 Linux 系统中安装并配置 Elasticsearch 和 Kibana,这两者是 ELK 堆栈的重要组成部分&#xff0c…

密钥管理方法DUKPT的OpenSSL代码实现Demo

目录 1 DUKPT简介 2 基本概念 2.1 BDK 2.2 KSN 2.3 IPEK 2.4 FK 2.5 TK 3 工作流程 3.1 密钥注入过程 3.2 交易过程 3.3 BDK派生IPEK过程 3.4 IPEK计算FK过程 4 演示Demo 4.1 开发环境 4.2 功能介绍 4.3 下载地址 5 在线工具 6 标准下载 1 DUKPT简介 DUKPT&a…

DEVOPS: 集群伸缩原理

概述 阿里云 K8S 集群的一个重要特性,是集群的节点可以动态的增加或减少有了这个特性,集群才能在计算资源不足的情况下扩容新的节点,同时也可以在资源利用 率降低的时候,释放节点以节省费用理解实现原理,在遇到问题的…

Linux系统解压分卷压缩文件的解决方案

大家好,我是爱编程的喵喵。双985硕士毕业,现担任全栈工程师一职,热衷于将数据思维应用到工作与生活中。从事机器学习以及相关的前后端开发工作。曾在阿里云、科大讯飞、CCF等比赛获得多次Top名次。现为CSDN博客专家、人工智能领域优质创作者。喜欢通过博客创作的方式对所学的…

【CUDA代码实践03】m维网格n维线程块对二维矩阵的索引

文章目录 一、数据存储方式二、二维网格二维线程块三、二维网格一维线程块四、一维网格一维线程块 为了方便下次找到文章,也方便联系我给大家提供帮助,欢迎大家点赞👍、收藏📂和关注🔔!一起讨论技术问题&am…

低功耗4G模组:FTP应用示例

一、FTP 概述 FTP(File Transfer Protocol,文件传输协议) 是 TCP/IP 协议组中的协议之一。 FTP协议包括两个组成部分,其一为FTP服务器,其二为FTP客户端。 其中FTP服务器用来存储文件,用户可以使用FTP客户…

鸿蒙UI开发——基于组件安全区方案实现沉浸式界面

1、概 述 本文是接着上篇文章 鸿蒙UI开发——基于全屏方案实现沉浸式界面 的继续讨论。除了全屏方案实现沉浸式界面外,我们还可以使用组件安全区的方案。 当我们没有使用setWindowLayoutFullScreen()接口设置窗口为全屏布局时,默认使用的策略就是组件安…

智慧税务管理:金融企业报税效率与合规性提升

前言 在数字化浪潮席卷全球的今天,金融行业正面临前所未有的挑战与机遇。如何在复杂的税务环境中保持合规并提高效率,已成为每个金融企业的重中之重。今天小编就为大家介绍一下如何通过借助智能税务平台,实现税务管理的智能化革新&#xff0…

Docker 常用命令全解析:提升对雷池社区版的使用经验

Docker 常用命令解析 Docker 是一个开源的容器化平台,允许开发者将应用及其依赖打包到一个可移植的容器中。以下是一些常用的 Docker 命令及其解析,帮助您更好地使用 Docker。 1. Docker 基础命令 查看 Docker 版本 docker --version查看 Docker 运行…

华为OD机试 - 无向图染色(Java 2024 E卷 100分)

华为OD机试 2024E卷题库疯狂收录中,刷题点这里 专栏导读 本专栏收录于《华为OD机试(JAVA)真题(E卷D卷A卷B卷C卷)》。 刷的越多,抽中的概率越大,私信哪吒,备注华为OD,加…

Python+pandas读取Excel将表头为键:对应行为值存为字典—再转json

目录 专栏导读1、库的介绍2、库的安装3、核心代码4、方法1:5、方法2总结专栏导读 🌸 欢迎来到Python办公自动化专栏—Python处理办公问题,解放您的双手 🏳️‍🌈 博客主页:请点击——> 一晌小贪欢的博客主页求关注 👍 该系列文章专栏:请点击——>Python办公自…

摸鱼小工具-窗口隐藏透明

摸鱼小工具-窗口隐藏透明 介绍 就很简单的一个工具,鼠标移上去显示,鼠标离开就透明。具体看图。 源码以及下载地址

vue封装信号强度

图标下载链接: https://pan.baidu.com/s/1828AidkCKU1KTkw1SvBwQg?pwd4k7n 共五格信号 信号5为绿色,信号4为绿色,信号3为黄色,信号2为黄色,信号1为红色,信号0为灰色。 子组件 /components/SignalStrength/index.vu…

使用常数指针作为函数参数

在main.cpp里输入程序如下&#xff1a; #include <iostream> //使能cin(),cout(); #include <iomanip> //使能setbase(),setfill(),setw(),setprecision(),setiosflags()和resetiosflags(); //setbase( char x )是设置输出数字的基数,如输出进制数则用setbas…

简易了解Pytorch中的@ 和 * 运算符(附Demo)

目录 1. 基本知识2. 3. * 1. 基本知识 在 PyTorch 中&#xff0c; 和 * 运算符用于不同类型的数学运算&#xff0c;具体是矩阵乘法和逐元素乘法 基本知识 运算符功能适用场景示例矩阵乘法&#xff08;或点乘&#xff09;用于执行线性代数中的矩阵乘法C A B&#xff0c;其中…

VulkanTutorial(8·Shader modules)

Shader modules 与早期的API不同&#xff0c;Vulkan中的着色器代码必须以字节码格式指定&#xff0c;而不是人类可读的语法&#xff0c;如GLSL和HLSL。这种字节码格式称为SPIR-V它是一种可用于编写图形和计算着色器的格式 使用像SPIR-V这样简单的字节码格式&#xff0c;不会面…