基于语义的NLP任务去重:大语言模型应用与实践

引言

在自然语言处理(NLP)任务中,数据质量是模型性能的关键因素之一。重复或冗余的数据会导致模型过度拟合或浪费计算资源,特别是在大语言模型(如 BERT、GPT 系列等)训练和推理阶段。传统的基于字符匹配的去重方法(如字符串哈希或编辑距离)在面对语义相似的文本时表现有限,而语义相似度算法则能更好地捕获文本之间的深层语义关系。

本文将介绍一种基于语义表示的去重方法,通过大语言模型生成的嵌入向量结合高效的相似度计算工具(如 FAISS),对大规模文本数据进行去重。此方法不仅适用于数据清洗,还可以应用在搜索引擎、推荐系统等需要衡量语义相似度的场景。

原理与方法

1. 传统去重方法的局限性

在 NLP 任务中,传统的去重方法包括:

  • 字符串哈希:
    基于文本的哈希值进行判重,适合完全重复的文本,但无法处理语义相似但表达不同的情况,例如:
    • 文本 A:我喜欢吃苹果。
    • 文本 B:苹果是我最喜欢的水果。

虽然两者语义相近,但哈希值完全不同。

  • 编辑距离(Levenshtein Distance):
    衡量两个字符串的编辑代价,适合处理少量字符差异的文本,但无法捕捉深层语义关系。

上述方法对文本的语义相似性缺乏鲁棒性,特别是在短文本或同义表达常见的场景下。例如,问答生成、文档去重、语料清洗等任务中,语义相似的重复数据可能会严重影响模型性能。

2. 基于语义嵌入的去重

语义嵌入(Semantic Embedding)是一种将文本映射到高维向量空间的技术,向量的物理距离或角度可以反映文本语义的相似程度。常见的嵌入生成模型包括:

  • BERT、RoBERTa、GPT 等大语言模型:能够生成上下文相关的语义表示。
  • Sentence-BERT(SBERT):专为语义相似度任务设计,提升了嵌入的语义表达能力。

基本流程:

    1. 文本嵌入生成:
      使用大语言模型将文本转化为固定维度的向量表示(如 768 维)。
    1. 相似度计算:
      通过数学距离(如余弦相似度或内积)衡量文本向量之间的相似性。
    1. 去重判断:
      基于相似度阈值判断文本是否为重复内容。

3. 相似度计算方法对比

在语义嵌入的基础上,常用的相似度计算方法包括:

3.1. 余弦相似度(Cosine Similarity)

余弦相似度衡量两个向量的夹角余弦值,范围为 [ − 1 , 1 ] [-1, 1] [1,1],归一化后范围为 [ 0 , 1 ] [0, 1] [0,1]。公式如下:
Cosine Similarity ( A , B ) = A ⋅ B ∥ A ∥ ∥ B ∥ \text{Cosine Similarity}(A, B) = \frac{A \cdot B}{\|A\| \|B\|} Cosine Similarity(A,B)=A∥∥BAB

  • 优点:消除向量模长的影响,只关注向量方向。
  • 缺点:计算开销稍高。
3.2. 内积相似度(Inner Product Similarity)

内积相似度直接计算两向量的点积值:
Inner Product ( A , B ) = A ⋅ B \text{Inner Product}(A, B) = A \cdot B Inner Product(A,B)=AB

  • 优点:计算简单,速度快。
  • 缺点:受向量模长影响,需要确保输入向量已归一化(模长为 1),否则结果不等价于余弦相似度。
欧几里得距离(Euclidean Distance)

衡量两个向量在高维空间中的直线距离:
Euclidean Distance ( A , B ) = ∑ i = 1 n ( A i − B i ) 2 \text{Euclidean Distance}(A, B) = \sqrt{\sum_{i=1}^n (A_i - B_i)^2} Euclidean Distance(A,B)=i=1n(AiBi)2

  • 优点:适合绝对位置相关的任务。
  • 缺点:不适合捕获方向性的语义相似度。

4. 高效的大规模相似度计算

直接比较所有嵌入向量的相似度在大规模数据中效率低下(复杂度为 O ( n 2 ) O(n^2) O(n2))。为此,我们借助 FAISS(Facebook AI Similarity Search)工具,能够在百万级甚至亿级数据中高效实现近似最近邻搜索。

4.1. FAISS 简介

FAISS 是一个高效的相似度搜索库,专为高维向量的最近邻搜索设计,支持以下特性:

  • 多种索引结构:
    • Flat:暴力搜索,适合中小规模数据。
    • IVF(倒排文件索引):适合大规模数据。
    • PQ(分组量化):进一步压缩内存占用。
  • GPU 加速:支持 GPU 版本,在大规模数据上极大提升搜索速度。
  • 灵活的距离度量:支持内积、余弦、欧几里得距离等。
4.2. 使用 FAISS 的语义去重流程
  1. 初始化 FAISS 索引:选择适合任务的数据结构(如 IndexFlatIP)。
  2. 添加向量:将嵌入向量添加到索引。
  3. 查询相似度:对每个新向量,查找与索引中最近的向量,判断是否重复。

代码实现

import json
from transformers import BertTokenizer, BertModel
import torch
from tqdm import tqdm
import faiss
from typing import List, Dict, Union


class TextDeduplicatorWithFAISS:
    """
    使用 FAISS 索引实现的文本去重类(基于余弦相似度)。
    """

    def __init__(self, model_name: str = 'bert-base-chinese', device: str = None) -> None:
        """
        初始化文本去重类。

        参数:
        - model_name: 使用的预训练模型名称,默认为 'bert-base-chinese'。
        - device: 指定运行设备('cpu' 或 'cuda'),默认为自动检测。
        """
        self.tokenizer = BertTokenizer.from_pretrained(model_name)
        self.model = BertModel.from_pretrained(model_name)
        self.device = device if device else ('cuda' if torch.cuda.is_available() else 'cpu')
        self.model = self.model.to(self.device)

        # 初始化 FAISS 索引
        self.embedding_dim = 768  # BERT 输出嵌入维度
        self.index = faiss.IndexFlatIP(self.embedding_dim)  # 使用内积(IP)作为相似度度量
        self.index_ids = []  # 存储对应嵌入的 ID,方便后续处理

    def get_embeddings(self, texts: List[str]) -> torch.Tensor:
        """
        计算文本的嵌入表示,并进行归一化。

        参数:
        - texts: 要计算嵌入的一组文本列表。

        返回:
        - 归一化后的文本嵌入张量,形状为 (batch_size, hidden_size)。
        """
        inputs = self.tokenizer(texts, return_tensors="pt", padding=True, truncation=True, max_length=512)
        inputs = inputs.to(self.device)  # 将输入张量移动到指定设备
        with torch.no_grad():  # 禁用梯度计算以节省内存
            outputs = self.model(**inputs)
        embeddings = outputs.last_hidden_state[:, 0, :].cpu()  # 获取 [CLS] 的嵌入并移动到 CPU
        # 对嵌入进行归一化处理(实现余弦相似度)
        embeddings = embeddings / torch.norm(embeddings, dim=1, keepdim=True)
        return embeddings

    def is_duplicate(self, embedding: torch.Tensor, threshold: float = 0.9) -> bool:
        """
        检查一个嵌入是否与 FAISS 索引中的嵌入重复。

        参数:
        - embedding: 待检查的嵌入向量,形状为 (1, hidden_size)。
        - threshold: 相似度的阈值,默认为 0.9。

        返回:
        - 是否为重复项(True / False)。
        """
        if self.index.ntotal == 0:  # 如果索引为空,肯定不是重复
            return False

        # 通过 FAISS 查找最近的向量及其相似度
        embedding_np = embedding.numpy()  # 转为 NumPy 格式
        distances, _ = self.index.search(embedding_np, k=1)  # 查找最近的 1 个向量

        # 检查最近向量的相似度是否高于阈值
        max_similarity = distances[0][0]  # FAISS 返回的是归一化向量的内积(等价于余弦相似度)
        return max_similarity >= threshold

    def add_to_index(self, embedding: torch.Tensor, doc_id: int) -> None:
        """
        将新的嵌入添加到 FAISS 索引中。

        参数:
        - embedding: 要添加的嵌入向量,形状为 (1, hidden_size)。
        - doc_id: 该嵌入对应的文档 ID。
        """
        embedding_np = embedding.numpy()  # 转为 NumPy 格式
        self.index.add(embedding_np)  # 添加到索引中
        self.index_ids.append(doc_id)  # 保存对应的文档 ID

    def process_and_save(self, input_path: str, output_path: str, threshold: float = 0.9) -> None:
        """
        处理输入文件,去除相似文本并保存到输出文件。

        参数:
        - input_path: 输入 JSONL 文件路径。
        - output_path: 输出 JSONL 文件路径。
        - threshold: 去重的相似度阈值,默认值为 0.9。
        """
        doc_id = 0  # 用于标记每条文档的唯一 ID

        with open(input_path, 'r', encoding='utf-8') as infile, open(output_path, 'w', encoding='utf-8') as outfile:
            for line in tqdm(infile, desc="Processing lines"):
                item: Dict[str, Union[str, int, float]] = json.loads(line)  # 从 JSONL 文件中读取一条数据
                output_text: str = item['output']  # 获取文本内容

                # 获取当前文本的嵌入
                current_embedding = self.get_embeddings([output_text])

                # 检查是否为重复
                if not self.is_duplicate(current_embedding, threshold):
                    # 如果不重复,保存文本,并将嵌入添加到索引
                    outfile.write(json.dumps(item, ensure_ascii=False) + '\n')
                    self.add_to_index(current_embedding, doc_id)
                    doc_id += 1


# 使用示例
if __name__ == "__main__":
    # 初始化去重器
    deduplicator = TextDeduplicatorWithFAISS(model_name='bert-base-chinese')

    # 去重并保存结果
    deduplicator.process_and_save(
        input_path='=./processed_unique_data-5.jsonl',
        output_path='=./processed_unique_data-6.jsonl',
        threshold=0.95
    )

数据示例:

{"id": 1, "output": "什么是人工智能?人工智能是指让机器具备人类智能的技术。"}
{"id": 2, "output": "人工智能的定义是什么?人工智能是赋予机器类似人类智能的能力。"}

总结

本文介绍了一种基于语义嵌入的大规模文本去重方法,通过结合大语言模型(如 BERT)和高效相似度搜索工具(FAISS),实现了对语料库的语义级去重。该方法具有以下优点:

  • 高精度:捕捉语义相似性,避免遗漏同义表达的重复数据。
  • 高扩展性:支持大规模数据处理,适用于百万级文本的去重任务。
  • 通用性强:不仅适用于去重,还可扩展至相似文本检索、推荐系统等任务。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/939737.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

2024年12月19日Github流行趋势

项目名称:ByteByteGoHq / system-design-101 项目维护者:slam, LombardiDaniel, Stephanvs, alastairp, lucasberti 等项目介绍:使用视觉和简单术语解释复杂的系统。帮助你准备系统设计面试。项目star数:66,527项目fork数&#xf…

Elasticsearch:什么是信息检索?

信息检索定义 信息检索 (IR) 是一种有助于从大量非结构化或半结构化数据中有效、高效地检索相关信息的过程。信息(IR)检索系统有助于搜索、定位和呈现与用户的搜索查询或信息需求相匹配的信息。 作为信息访问的主要形式,信息检索是每天使用…

机械鹦鹉与真正的智能:大语言模型推理能力的迷思

编者按: 大语言模型真的具备推理能力吗?我们是否误解了"智能"的本质,将模式匹配误认为是真正的推理? 本文深入探讨了大语言模型(LLMs)是否真正具备推理能力这一前沿科学问题,作者的核…

day-21 内核链表以及栈

1.昨日作业 1.删除指定节点 找到删除就完事了,双向可以停在删除处。 /***************************** 功能:删除指定结点(通过姓名)* 参数:phead;oldname; * 返回:成功0,失-1&…

深入剖析MyBatis的架构原理

架构设计 简要画出 MyBatis 的架构图 >> ​​ Mybatis 的功能架构分为哪三层? API 接口层 提供给外部使用的接口 API,开发人员通过这些本地 API 来操纵数据库。接口层一接收到调用请求就会调用数据处理层来完成具体的数据处理。MyBatis 和数据库的…

Figma插件:提高设计工作效率

Figma作为一款当前流行的设计工具,其受欢迎程度的飙升与2020年疫情后的远程工作趋势密切相关。许多设计团队开始转向线上办公模式,这时,Figma的协作功能就显得尤为重要,促使众多设计师从Sketch等传统设计软件转向Figma。 Figma是…

Hive其一,简介、体系结构和内嵌模式、本地模式的安装

目录 一、Hive简介 二、体系结构 三、安装 1、内嵌模式 2、测试内嵌模式 3、本地模式--最常使用的模式 一、Hive简介 Hive 是一个框架,可以通过编写sql的方式,自动的编译为MR任务的一个工具。 在这个世界上,会写SQL的人远远大于会写ja…

Qt之自定义标题栏拓展(十)

Qt开发 系列文章 - user-defined-titlebars(十) 目录 前言 一、方式一 1.效果演示 2.创建标题栏类 3.可视化UI设计 4.定义相关函数 5.使用标题栏类 二、方式二 1.效果演示 2.创建标题栏类 3.定义相关函数 1.初始化函数 2.功能函数 3.窗口关…

鱼跃医疗获评2024年国家级“绿色工厂”,以绿色制造树立行业标杆

近日,工业和信息化部公布了2024年度绿色制造名单,鱼跃医疗凭借在绿色制造和可持续发展方面的卓越表现,成功入选并获评国家级“绿色工厂”。 “绿色工厂”是工信部为贯彻落实国家《工业绿色发展规划》,加快推动绿色制造体系建设&a…

【数据集】玻璃门窗缺陷检测数据集3085张5类YIOLO+VOC格式

数据集格式:VOC格式YOLO格式 压缩包内含:3个文件夹,分别存储图片、xml、txt文件 JPEGImages文件夹中jpg图片总计:3085 Annotations文件夹中xml文件总计:3085 labels文件夹中txt文件总计:3085 标签种类数&am…

一、LRU缓存

LRU缓存 1.LRU缓存介绍2.LRU缓存实现3.LRU缓存总结3.1 LRU 缓存的应用3.2 LRU 缓存的优缺点 1.LRU缓存介绍 LRU是Least Recently Used 的缩写,意为“最近最少使用”。它是一种常见的缓存淘汰策略,用于在缓存容量有限时,决定哪些数据需要被删…

【视频生成模型】——Hunyuan-video 论文及代码讲解和实操

🔮混元文生视频官网 | 🌟Github代码仓库 | 🎬 Demo 体验 | 📝技术报告 | 😍Hugging Face 文章目录 论文详解基础介绍数据预处理 (Data Pre-processing)数据过滤 (Data Filtering)数据标注 (Data…

【C++】函数计算题解论

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳] 本文专栏: C 文章目录 💯前言💯题目描述💯思路解析3.1 函数的递归定义3.2 边界条件控制3.3 记忆化搜索 💯C实现代码💯添加解释💯小结 💯前言 在…

低温高海拔大载重无人机吊运技术详解

低温高海拔大载重无人机吊运技术是一项复杂而先进的技术,它结合了无人机的飞行控制、吊装系统的操作以及特殊环境下的适应性等多个方面。以下是对该技术的详细解析: 一、无人机基础知识与结构特点 低温高海拔大载重无人机通常采用旋翼设计,…

Java设计模式 —— 【结构型模式】适配器模式(类的适配器、对象适配器、接口适配器)详解

文章目录 基本介绍一、类的适配器二、对象适配器三、接口适配器总结 基本介绍 生活中有很多例子: 不同国家的插座接口不同,需要转换器;家用电源220V,手机只接受5V充电,需要转换器;读卡器,拓展…

系列2:基于Centos-8.6Kubernetes 集成GPU资源信息

每日禅语 自省,就是自我反省、自我检查,自知己短,从而弥补短处、纠正过失。佛陀强调自觉觉他,强调以达到觉行圆满为修行的最高境界。要改正错误,除了虚心接受他人意见之外,还要不忘时时观照己身。自省自悟之…

leetcode17:电话号码的字母组合

给定一个仅包含数字 2-9 的字符串,返回所有它能表示的字母组合。答案可以按 任意顺序 返回。 给出数字到字母的映射如下(与电话按键相同)。注意 1 不对应任何字母。 示例 1: 输入:digits "23" 输出&#…

OpenHarmony-3.HDF Display子系统(6)

Display 子系统 1.Display驱动模型介绍 当前操作系统和 SOC 种类繁多,各厂商的显示屏器件也各有不同,随之针对器件的驱动代码也不尽相同,往往是某一款器件驱动,只适用于某单一内核系统或 SOC,如果要迁移到其他内核或者…

AQS源码学习

一、park/unpark阻塞唤醒线程 LockSupport是JDK中用来实现线程阻塞和唤醒的工具。使用它可以在任何场合使线程阻塞,可以指定任何线程进行唤醒,并且不用担心阻塞和唤醒操作的顺序,但要注意连续多次唤醒的效果和一次唤醒是一样的。JDK并发包下…

GUI07-学工具栏,懂MVC

MVC模式,是天底下编写GUI程序最为经典、实效的一种软件架构模式。当一个人学完菜单栏、开始学习工具栏时,就是他的一生中,最适合开始认识 MVC 模式的好时机之一。这节将安排您学习: Model-View-Controller 模式如何创建工具栏以及…