Bi-LSTM-CRF实现中文命名实体识别工具(TensorFlow)

项目源码获取方式见文章末尾! 回复暗号:13,免费获取600多个深度学习项目资料,快来加入社群一起学习吧。

                    **《------往期经典推荐------》**

项目名称
1.【MobileNetV2实现实时口罩检测tensorflow】
2.【卫星图像道路检测DeepLabV3Plus模型】
3.【GAN模型实现二次元头像生成】
4.【CNN模型实现mnist手写数字识别】
5.【fasterRCNN模型实现飞机类目标检测】
6.【CNN-LSTM住宅用电量预测】
7.【VGG16模型实现新冠肺炎图片多分类】
8.【AlexNet模型实现鸟类识别】
9.【DIN模型实现推荐算法】
10.【FiBiNET模型实现推荐算法】
11.【钢板表面缺陷检测基于HRNET模型】

更多干货内容持续更新中…


1. 项目简介

本项目旨在开发一个基于深度学习的中文命名实体识别(Named Entity Recognition, NER)系统。命名实体识别是自然语言处理(Natural Language Processing, NLP)领域的重要任务之一,广泛应用于信息提取、文本分类、知识图谱构建等多个场景中。项目采用了双向长短时记忆网络(BiLSTM)与条件随机场(CRF)模型相结合的架构,通过深度学习模型自动学习文本中的实体边界和类型。该模型能够识别出三种类型的命名实体:人名、地名和组织名,并基于TensorFlow框架实现。中文NER具有独特的挑战,如缺乏显式的词边界以及实体上下文依赖较强,本项目通过对上下文信息的捕捉以及序列标注的优化来提升识别的准确性。最终目标是开发一个性能稳定、可扩展、易于部署的中文命名实体识别系统,为中文信息处理提供可靠的基础模块。

2.技术创新点摘要

  1. BiLSTM-CRF 模型架构的优化:项目采用了双向长短时记忆网络(BiLSTM)与条件随机场(CRF)相结合的模型架构。BiLSTM用于捕捉输入文本的上下文信息,使模型能够更好地理解中文字符间的依赖关系,而CRF则在输出层进行序列标注的全局优化,确保每个实体标注的逻辑连贯性,避免标注错误。该架构在命名实体识别任务中比传统的LSTM和CNN模型表现更好,能够捕捉更复杂的上下文模式。
  2. 嵌入层的灵活配置与更新策略:在嵌入层设计上,本项目允许选择使用预训练的字符嵌入(embedding)或随机初始化的嵌入向量,并提供了更新嵌入的选项(update_embedding),使得模型能够动态调整嵌入向量以适应具体任务场景。这种灵活的嵌入策略使得模型能够更好地处理不同来源的文本数据,适应不同的应用场景。
  3. 梯度裁剪与自适应学习率策略:模型训练过程中使用了梯度裁剪(gradient clipping)策略,有效避免了梯度爆炸问题,确保了模型的训练稳定性。同时,项目提供了多种优化器(如Adam、SGD等)的选择,并在学习率上采用了自适应调整策略(learning rate scheduling),能够根据训练过程中损失的变化动态调整学习率,提高模型的收敛速度。
  4. 基于序列长度的动态批量处理:模型在输入层使用了动态批量(batch dynamic)设计,根据每个输入序列的实际长度进行填充处理,确保了模型能够高效处理不同长度的句子,降低了不必要的计算量,提高了训练和预测的效率。

在这里插入图片描述

3. 数据集与预处理

本项目使用的中文命名实体识别数据集主要来自公开的CoNLL-2003标准数据格式。数据集中的每个句子都被标注为三种命名实体类别:人名(PER)、地名(LOC)和组织名(ORG),并且遵循BIO标注格式,即实体前标有“B-”表示实体的开始,“I-”表示实体的中间部分,“O”则表示非实体部分。数据集中每个标注行包含了词汇和对应的标签,整体数据分为训练集、验证集和测试集。

数据集特点

  • 数据中存在多种字符类型(汉字、英文字符、数字等),需要处理多种类型混合的文本。
  • 命名实体边界较难区分,尤其是在多种语言混杂或字符类型交替时,模型难以精准定位实体的起止位置。
  • 不同实体类型的标签分布不均衡,特别是组织名(ORG)标签数量较少,模型可能出现类别不平衡问题。

数据预处理流程

  1. 数据清洗与分词:首先,对原始文本进行数据清洗,去除无效字符和标点符号,并使用自定义分词工具对文本进行分词处理。分词后,每个词会被转换为唯一的词ID以便输入模型。
  2. 字典构建与标签转换:在数据清洗和分词后,项目根据所有出现的词汇生成词汇表(Vocabulary),并为每个标签创建对应的标签索引(tag2label)。所有句子中的词汇将根据该词汇表转换为词索引,标签也会被转换为标签ID。
  3. 特征工程与填充处理:针对中文文本中的词汇信息,本项目还引入了词嵌入(Word Embeddings)作为附加特征,以提升模型对不同字符含义的理解。同时,针对不同长度的句子,使用了序列填充(Padding)处理,使其能够统一输入到模型中进行训练。
  4. 数据集划分与增强:将原始数据集分为训练集、验证集和测试集,并通过数据增广技术(如随机替换同义词或删除非必要词语)来提升模型的泛化能力。

4. 模型架构

  1. 模型结构的逻辑

本项目采用了基于 双向长短时记忆网络(BiLSTM)和条件随机场(CRF) 的命名实体识别模型架构。其核心组件包括以下几个模块:

  1. 输入嵌入层(Embedding Layer)

    1. 该层将输入的词汇序列转换为词向量表示,并利用词嵌入矩阵对每个词进行查找。
    2. 数学表示: E = W embedding [ X ] E = W_{\text{embedding}}[X] E=Wembedding[X] 其中,Wembedding 是预训练或随机初始化的嵌入矩阵,X 为输入的词序列,E 为对应的嵌入矩阵表示。
  2. BiLSTM 层

    1. 使用了双向 LSTM 单元(前向 LSTM 和后向 LSTM)来捕捉序列的上下文信息。BiLSTM 层能够同时处理前后依赖关系,以获得每个词的更完整表示。
    2. 数学表示:
    3. $$\overrightarrow{h_t} = \text{LSTM}_{\text{fw}}(E_t, \overrightarrow{h_{t-1}})$$
      
    4. h t ← = LSTM bw ( E t , h t + 1 ← ) \overleftarrow{h_t} = \text{LSTM}_{\text{bw}}(E_t, \overleftarrow{h_{t+1}}) ht =LSTMbw(Et,ht+1 )
    5. H t = [ h t → ; h t ← ] H_t = [\overrightarrow{h_t}; \overleftarrow{h_t}] Ht=[ht ;ht ]
    6. 其中, h t → \overrightarrow{h_t} ht h t ← \overleftarrow{h_t} ht 分别为前向和后向 LSTM 的隐状态,Ht 是 BiLSTM 层的输出。
  3. 投影层(Projection Layer)

    1. 该层将 BiLSTM 层输出的隐状态进行线性变换,以得到每个时间步上对所有标签的打分值(logits)。
    2. 数学表示: P t = H t × W + b P_t = H_t \times W + b Pt=Ht×W+b 其中,W 为权重矩阵,b 为偏置项,Pt 为每个时间步上对标签的打分结果。
  4. 条件随机场层(CRF Layer)

    1. 用于处理序列标注任务中的标注依赖关系。通过对整个序列的打分来选择全局最优路径,确保输出标签之间的逻辑一致性。
    2. 目标函数(损失函数): log_likelihood = ∑ i = 1 N ( S ( X , y ) − log ⁡ ∑ y ′ e S ( X , y ′ ) ) \text{log\_likelihood} = \sum_{i=1}^{N} \left( S(X, y) - \log \sum_{y'} e^{S(X, y')} \right) log_likelihood=i=1N S(X,y)logyeS(X,y) 其中,S(X,y) 为输入序列 X 和标签序列 y 的评分函数,N 为序列总数。
  1. 模型的整体训练流程与评估指标
  1. 模型训练流程

    1. 输入准备:将文本数据转换为索引表示,并进行序列填充和标签转换。
    2. 构建图计算模型:通过 add_placeholders() 创建输入占位符,再依次执行嵌入层(lookup_layer_op())、BiLSTM 层(biLSTM_layer_op())、投影层和 CRF 层的操作。
    3. 前向传播:计算输入序列经过 BiLSTM 和投影层后的输出(logits)。
    4. 损失计算:使用 CRF 的 crf_log_likelihood 方法计算真实标签与预测标签的差距,并优化损失。
    5. 梯度裁剪与优化:采用指定的优化器(如 Adam)进行参数更新,并使用梯度裁剪(gradient clipping)避免梯度爆炸。
    6. 模型保存与验证:每轮训练结束后进行模型验证,并根据验证集的损失值保存模型。
  2. 评估指标

    1. 准确率(Accuracy) :评估模型对实体边界及类别预测的准确程度。
    2. 精确率(Precision)、召回率(Recall)与 F1 值:在多标签分类任务中,使用 F1 值作为模型性能的主要衡量标准。
    3. $$\text{Precision} = \frac{TP}{TP + FP}$$
      
    4. Recall = T P T P + F N \text{Recall} = \frac{TP}{TP + FN} Recall=TP+FNTP
    5. F 1 = 2 × Precision × Recall Precision + Recall F1 = \frac{2 \times \text{Precision} \times \text{Recall}}{\text{Precision} + \text{Recall}} F1=Precision+Recall2×Precision×Recall
    6. 通过 conlleval 脚本对命名实体识别的结果进行详细分析,生成最终的评价报告

5. 核心代码详细讲解

  1. 数据预处理和特征工程

代码段:

parser.add_argument('--train_data', type=str, default='data_path', help='train data source')
parser.add_argument('--epoch', type=int, default=40, help='#epoch of training')
parser.add_argument('--update_embedding', type=str2bool, default=True, help='update embedding during training')
parser.add_argument('--pretrain_embedding', type=str, default='random', help='use pretrained char embedding or init it randomly')

解释:

  • 这些参数用于模型的初始化和数据处理:

    • --train_data: 定义训练数据的路径,便于后续读取数据文件。
    • --epoch: 训练的迭代次数,默认为40次。
    • --update_embedding: 是否在训练过程中更新嵌入矩阵。
    • --pretrain_embedding: 指定使用预训练的词向量或随机初始化的嵌入矩阵。

代码段:

word2id = read_dictionary(os.path.join('.', args.train_data, 'word2id.pkl'))
if args.pretrain_embedding == 'random':
    embeddings = random_embedding(word2id, args.embedding_dim)

解释:

  • read_dictionary 函数用于读取词汇表,将每个词映射到对应的词ID,并生成 word2id 字典。
  • 如果参数 pretrain_embedding 设置为 random,则会使用 random_embedding 函数来生成随机的词嵌入矩阵(随机分配每个词的向量表示)。
  1. 模型架构构建

代码段:

def build_graph(self):
    self.add_placeholders()
    self.lookup_layer_op()
    self.biLSTM_layer_op()
    self.softmax_pred_op()
    self.loss_op()
    self.trainstep_op()

解释:

  • 该函数是模型的核心架构构建函数,依次调用各层模块,完成计算图的搭建。

    • add_placeholders(): 创建输入、标签、序列长度等占位符。
    • lookup_layer_op(): 执行词嵌入查找,将输入转换为嵌入表示。
    • biLSTM_layer_op(): 使用双向 LSTM 处理序列输入,提取上下文特征。
    • softmax_pred_op(): 执行标签的 Softmax 预测(仅在未使用 CRF 时)。
    • loss_op(): 定义损失函数(CRF 损失或 Softmax 损失)。
    • trainstep_op(): 设置优化器和训练步骤。

代码段:

def biLSTM_layer_op(self):with tf.variable_scope("bi-lstm"):
        cell_fw = LSTMCell(self.hidden_dim)
        cell_bw = LSTMCell(self.hidden_dim)
        (output_fw_seq, output_bw_seq), _ = tf.nn.bidirectional_dynamic_rnn(
            cell_fw=cell_fw,
            cell_bw=cell_bw,
            inputs=self.word_embeddings,
            sequence_length=self.sequence_lengths,
            dtype=tf.float32)
        output = tf.concat([output_fw_seq, output_bw_seq], axis=-1)
        output = tf.nn.dropout(output, self.dropout_pl)

解释:

  • biLSTM_layer_op 是模型的双向 LSTM 层,用于提取序列上下文特征。

    • cell_fwcell_bw 分别为前向和后向的 LSTM 单元。
    • tf.nn.bidirectional_dynamic_rnn: 处理输入嵌入矩阵 self.word_embeddings,根据序列长度 sequence_length 动态调整 LSTM 单元的计算。
    • 最后将前向和后向输出的隐状态拼接起来 tf.concat,并应用 Dropout 操作防止过拟合。
  1. 模型的损失函数与训练步骤

代码段:

def loss_op(self):if self.CRF:
        log_likelihood, self.transition_params = crf_log_likelihood(
            inputs=self.logits,
            tag_indices=self.labels,
            sequence_lengths=self.sequence_lengths)
        self.loss = -tf.reduce_mean(log_likelihood)else:
        losses = tf.nn.sparse_softmax_cross_entropy_with_logits(
            logits=self.logits,
            labels=self.labels)
        mask = tf.sequence_mask(self.sequence_lengths)
        losses = tf.boolean_mask(losses, mask)
        self.loss = tf.reduce_mean(losses)
    tf.summary.scalar("loss", self.loss)

解释:

  • loss_op 函数用于定义模型的损失计算方法。

    • 如果使用 CRF 层:调用 crf_log_likelihood 函数计算条件随机场的对数似然,并返回转移参数 self.transition_params 和对数似然值。
    • 如果不使用 CRF:采用 sparse_softmax_cross_entropy_with_logits 计算交叉熵损失,并对序列长度进行掩码处理(sequence_mask)。
    • 最终通过 tf.reduce_mean 求均值,得到整体的损失值。

代码段:

def trainstep_op(self):with tf.variable_scope("train_step"):
        self.global_step = tf.Variable(0, name="global_step", trainable=False)
        optim = tf.train.AdamOptimizer(learning_rate=self.lr_pl)
        grads_and_vars = optim.compute_gradients(self.loss)
        grads_and_vars_clip = [[tf.clip_by_value(g, -self.clip_grad, self.clip_grad), v] for g, v in grads_and_vars]
        self.train_op = optim.apply_gradients(grads_and_vars_clip, global_step=self.global_step)

解释:

  • trainstep_op 定义了模型的训练步骤:

    • 使用 tf.train.AdamOptimizer 定义 Adam 优化器,并基于损失函数 self.loss 计算梯度。
    • 进行梯度裁剪(clip_by_value)以防止梯度爆炸。
    • optim.apply_gradients 将优化后的梯度应用于模型参数,并更新全局步骤 global_step
  1. 模型训练与评估

代码段:

def train(self, train, dev):
    saver = tf.train.Saver(tf.global_variables())with tf.Session(config=self.config) as sess:
        sess.run(self.init_op)
        self.add_summary(sess)for epoch in range(self.epoch_num):
            self.run_one_epoch(sess, train, dev, self.tag2label, epoch, saver)

解释:

  • train 函数是模型的核心训练流程:

    • 使用 tf.Session 启动 TensorFlow 会话,并运行 self.init_op 进行变量初始化。
    • 调用 run_one_epoch 函数,进行每一轮训练(每个 epoch 处理一次完整的训练集)。

6. 模型优缺点评价

模型优点:

  1. BiLSTM + CRF 的高效结合:模型通过双向 LSTM 提取文本上下文信息,并利用 CRF 层进行全局标注优化,能够有效解决实体边界和标签依赖问题。尤其在处理长文本和复杂依赖关系时,能够提供更高的精度和召回率。
  2. 灵活的嵌入层配置:模型允许使用预训练的词向量或随机初始化的嵌入矩阵,并提供了更新嵌入选项,适应不同类型的数据和任务需求,提高了模型的泛化能力。
  3. 动态序列处理与梯度裁剪:模型通过动态批处理的方式处理不同长度的输入序列,并使用梯度裁剪避免梯度爆炸,确保了训练的稳定性。
  4. 丰富的超参数配置选项:如优化器选择、学习率调整、Dropout 比例、CRF 使用与否等,用户能够根据任务需求灵活配置,进一步提升模型性能。

模型缺点:

  1. 模型训练时间较长:由于 BiLSTM 需要同时处理前向和后向序列,训练和推理时间相对较长,尤其在大规模数据集上,计算开销较大。
  2. 对标签分布不均衡敏感:当某些标签类别样本较少时,模型可能会偏向于预测频率更高的类别,导致少数类别的识别效果不佳。
  3. 模型参数较多,容易过拟合:模型引入了多个层次的 LSTM 和 CRF 参数,若数据量不足或正则化不足,容易导致过拟合。

改进方向:

  1. 模型结构优化:可尝试引入自注意力机制(Self-Attention)或 Transformer 层,进一步增强对长距离依赖的捕捉能力,并提高训练效率。
  2. 超参数优化:采用超参数搜索(如 Grid Search 或 Bayesian Optimization)来自动选择最佳的学习率、LSTM 隐层维度等超参数。
  3. 数据增强方法:增加同义词替换、随机删除等数据增强策略,提升模型对数据多样性的适应能力,从而提高模型的泛化效果。

↓↓↓更多热门推荐:
基于opencv答题卡识别判卷

👍感谢小伙伴们点赞、关注! 如有其他项目需求的,可以在评论区留言,抽空制作更新!
✌粉丝福利:点击下方名片↓↓↓ , 回复暗号:13,免费获取600多个深度学习项目资料,快来加入社群一起学习吧。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/903264.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【ArcGIS Pro实操第4期】绘制三维地图

【ArcGIS Pro实操第4期】绘制三维地图 ArcGIS Pro绘制三维地图-以DEM高程为例参考 如何使用ArcGIS Pro将栅格数据用三维的形式进行表达?在ArcGIS里可以使用ArcScene来实现,ArcGIS Pro实现原理跟ArcScene一致。由于Esri未来将不再对ArcGIS更新&#xff0c…

Python酷库之旅-第三方库Pandas(174)

目录 一、用法精讲 801、pandas.Categorical类 801-1、语法 801-2、参数 801-3、功能 801-4、返回值 801-5、说明 801-6、用法 801-6-1、数据准备 801-6-2、代码示例 801-6-3、结果输出 802、pandas.Categorical.from_codes方法 802-1、语法 802-2、参数 802-3、…

2.5 塑性力学—应变状态

个人专栏—塑性力学 1.1 塑性力学基本概念 塑性力学基本概念 1.2 弹塑性材料的三杆桁架分析 弹塑性材料的三杆桁架分析 1.3 加载路径对桁架的影响 加载路径对桁架的影响 2.1 塑性力学——应力分析基本概念 应力分析基本概念 2.2 塑性力学——主应力、主方向、不变量 主应力、主…

在房价涨声一片中,购房者更要看好钱袋,千万不要冲动入坑!

近几个月以来诸多媒体都传出房价上涨的好消息,二手房东也连连传出反价的消息,似乎房价真的到底了,一些购房者因此可能被市场的波动而冲动买房,笔者认为这个时候反而要更慎重地看待房价。 房价的低点确实很难预测,不过1…

单链表OJ题(2):反转链表、找中间节点

目录 1.反转链表 反转链表总结: 2.链表的中间节点(快慢指针法) 快慢指针法总结 1.反转链表 在这道题中,我们需要把一个单链表反转它们的指向,这里,我们给出了一个好理解的简单解法,就是用三…

C++ 日志管理 spdlog 使用笔记

文章目录 Part.I IntroductionChap.I 预备知识Chap.II 常用语句 Part.II 使用Chap.I 简单使用Chap.II 自定义日志格式 Part.III 问题&解决方案Chap.I 如果文件存在则删除 Reference Part.I Introduction spdlog 是一个开源的 C 日志管理工具,Git 上面的地址为 …

在html中引用unpkg的vue3,v-model无法绑定方法

如果用下面代码引用vue使用&#xff0c;则注意v-model无法绑定方法。 <script src"https://unpkg.com/vue3/dist/vue.global.js"></script> 例如&#xff1a; <span>方法-全名&#xff1a;</span><input type"text" v-model&…

如何将原本打开Edge呈现出的360浏览器,更换成原本的Edge页面或者百度等其他页面

每次打开Edge浏览器&#xff0c;都会呈现出360浏览器的页面&#xff0c;很烦。以下将说明如果将呈现出的360浏览器&#xff0c;更换成原本的Edge页面或者百度等其他页面。 1.找到你的控制面板&#xff0c;点击卸载程序。 2. 找到360安全卫士&#xff0c;右键单击更改/卸载。 3…

【深度学习|地学应用】人工智能技术的发展历程与现状:探讨深度学习在遥感地学中的应用前景

【深度学习|地学应用】人工智能技术的发展历程与现状&#xff1a;探讨深度学习在遥感地学中的应用前景 【深度学习|地学应用】人工智能技术的发展历程与现状&#xff1a;探讨深度学习在遥感地学中的应用前景 文章目录 【深度学习|地学应用】人工智能技术的发展历程与现状&…

抖音评论采集 可采子评论

下载&#xff1a;【1】https://drive.uc.cn/s/5257861b109b4?public1 【2】https://pan.quark.cn/s/e54155575698

python pip更换(切换)国内镜像源

国内镜像源列表(个人推荐清华大学的源) ​ 清华大学&#xff1a; https://pypi.tuna.tsinghua.edu.cn/simple阿里云&#xff1a; http://mirrors.aliyun.com/pypi/simple豆瓣&#xff1a; http://pypi.douban.com/simple中国科技大学&#xff1a; https://pypi.mirrors.ustc.e…

Linux 重启命令全解析:深入理解与应用指南

Linux 重启命令全解析&#xff1a;深入理解与应用指南 在 Linux 系统中&#xff0c;掌握正确的重启命令是确保系统稳定运行和进行必要维护的关键技能。本文将深入解析 Linux 中常见的重启命令&#xff0c;包括功能、用法、适用场景及注意事项。 一、reboot 命令 功能简介 re…

福鼎自闭症全托干预:为福鼎地区自闭症患者提供个性化教育

在探讨自闭症儿童的教育与干预时&#xff0c;个性化与全面关怀成为了不可忽视的关键词。福鼎地区的自闭症全托干预项目&#xff0c;以其对患儿个体差异的深刻理解与尊重&#xff0c;为自闭症患者提供了量身定制的支持。而在遥远的广州&#xff0c;星贝育园自闭症儿童寄宿制学校…

js基础入门篇

1.输出语句&#xff0c;内部样式&#xff0c;外部样式&#xff0c;数组定义 <!DOCTYPE html> <html lang"en"> <head><meta charset"UTF-8"><meta name"viewport" content"widthdevice-width, initial-scale1.…

Oracle OCP认证考试考点详解082系列01

题记&#xff1a; 本篇博文是Oracle OCP认证考试考点详解082系列的第一篇&#xff0c;本系列主要讲解Oracle OCP认证考试考点&#xff08;题目&#xff09;&#xff0c;适用于19C/21C,跟着学OCP考试必过。 1. 第一题&#xff1a; 1. 题目 2. 解析及答案 关于Oracle数据库中节…

numpy——索引切片

一、索引和切片 import numpy as npx np.arange(48).reshape(6, 8) print(x)# 选取第二行 print(x[1]) #从0开始&#xff0c;取得第2行# 选取第二行, 第二列 print(x[1][1])# 选取第三行到最后一行, 第一列到最后一列 print(x[2:,2:])# 花式索引 (1, 1) 和 (4, 4) print(&quo…

.NET 8 中的 Mini WebApi

介绍 .NET 8 中的极简 API 隆重登场&#xff0c;重新定义了我们构建 Web 服务的方式。如果您想知道极简 API 的工作原理以及它们如何简化您的开发流程&#xff0c;让我们通过一些引人入胜的示例来深入了解一下。 .NET 极简主义的诞生 想想我们曾经不得不为一个简单的 Web 服务…

【在Linux世界中追寻伟大的One Piece】Socket编程UDP(续)

目录 1 -> V3版本-实现简单聊天室 1 -> V3版本-实现简单聊天室 UdpServer.hpp #pragma once#include <iostream> #include <string> #include <cerrno> #include <cstring> #include <unistd.h> #include <strings.h> #include &…

XHCI 1.2b 规范摘要(六)

系列文章目录 XHCI 1.2b 规范摘要&#xff08;一&#xff09; XHCI 1.2b 规范摘要&#xff08;二&#xff09; XHCI 1.2b 规范摘要&#xff08;三&#xff09; XHCI 1.2b 规范摘要&#xff08;四&#xff09; XHCI 1.2b 规范摘要&#xff08;五&#xff09; XHCI 1.2b 规范摘要…

Anki插件Export deck to html的改造

在Anki中进行复习时&#xff0c;每次只能打开一条笔记。如果积累了很多笔记&#xff0c;有时候会有将它们集中输出成一个pdf进行阅读的想法。Anki插件Export deck to html&#xff08;安装ID&#xff1a;1897277426&#xff09;就有这个功能。但是&#xff0c;这个插件目前存在…