基于transformers框架实践Bert系列5-阅读理解(文本摘要)

本系列用于Bert模型实践实际场景,分别包括分类器、命名实体识别、选择题、文本摘要等等。(关于Bert的结构和详细这里就不做讲解,但了解Bert的基本结构是做实践的基础,因此看本系列之前,最好了解一下transformers和Bert等)
本篇主要讲解阅读理解文本摘要)应用场景。本系列代码和数据集都上传到GitHub上:https://github.com/forever1986/bert_task

目录

  • 1 环境说明
  • 2 前期准备
    • 2.1 了解Bert的输入输出
    • 2.2 数据集与模型
    • 2.3 任务说明
    • 2.4 实现关键
  • 3 关键代码
    • 3.1 数据集处理
    • 3.2 模型加载
    • 3.3 评估函数
  • 4 整体代码
  • 5 运行效果

1 环境说明

1)本次实践的框架采用torch-2.1+transformer-4.37
2)另外还采用或依赖其它一些库,如:evaluate、pandas、datasets、accelerate、nltk等

2 前期准备

Bert模型是一个只包含transformer的encoder部分,并采用双向上下文和预测下一句训练而成的预训练模型。可以基于该模型做很多下游任务。

2.1 了解Bert的输入输出

Bert的输入:input_ids(使用tokenizer将句子向量化),attention_mask,token_type_ids(句子序号)、labels(结果)
Bert的输出:
last_hidden_state:最后一层encoder的输出;大小是(batch_size, sequence_length, hidden_size)(注意:这是关键输出,本次任务就需要获取该值,并进行一次线性层处理
pooler_output:这是序列的第一个token(classification token)的最后一层的隐藏状态,输出的大小是(batch_size, hidden_size),它是由线性层和Tanh激活函数进一步处理的。(通常用于句子分类,至于是使用这个表示,还是使用整个输入序列的隐藏状态序列的平均化或池化,视情况而定)。
hidden_states: 这是输出的一个可选项,如果输出,需要指定config.output_hidden_states=True,它也是一个元组,它的第一个元素是embedding,其余元素是各层的输出,每个元素的形状是(batch_size, sequence_length, hidden_size)
attentions:这是输出的一个可选项,如果输出,需要指定config.output_attentions=True,它也是一个元组,它的元素是每一层的注意力权重,用于计算self-attention heads的加权平均值。

2.2 数据集与模型

1)数据集来自:cmrc2018
2)模型权重使用:bert-base-chinese

2.3 任务说明

1)文本摘要就是让模型学会文本内容,然后根据提问给出答案或者总结。阅读理解中的文本摘要包括:抽取式和生成式
2)本次将的主要完成问答任务中抽取式(对于生成式文本摘要,单单使用BERT是无法完成的,因为BERT只有编码器,编码器就是给多少返回多少,并不会自动生成,一般可以结合解码器一起使用,那么就不如直接使用自回归或者seq2seq模型了),这里对抽取式数据集做一下说明,就是给定一个文本context,然后再给一个问题question以及一个答案answer(answer来自contex中的一小段文字)
3)片段抽取式任务就是让模型学会从context+question中获取到answer,answer来自contex中的一小段文字。

2.4 实现关键

1)首先我们先看看数据集结构

{
    "answers": {
        "answer_start": [11, 11],
        "text": ["光荣和ω-force", "光荣和ω-force"]
    },
    "context": "\"《战国无双3》()是由光荣和ω-force开发的战国无双系列的正统第三续作。本作以三大故事为主轴,分别是以武田信玄等人为主的《关东三国志》,织田信长等人为主的《战国三杰》,石田三成等人为主的《关原的年轻武者》,丰富游戏内的剧情。此部份专门介绍角色,欲知武...",
    "id": "DEV_0_QUERY_0",
    "question": "《战国无双3》是由哪两个公司合作开发的?"
}
  • 其中answers是答案,一个map,其中answer_start是答案的起始位置,text是答案内容,这里2个字段都是list,是因为可能有多个答案或者多个问题的答案
  • context是文本内容
  • question是问题
  • id是数据id

2)我们需要将任务转化为:问题question和文本内容context作为输入,然后label是answer的开始位置结束位置,记住是token后的开始位置和结束位置,因为有的词token后可能是多个token

3)另外注意的问题是拼接问题question和文本内容context可能超过我们的max_length,如果采用暴力截断,会出现有答案部分内容被截取掉了,因此如果我们不希望被截断,可以将文本分块输入到模型中,所以在做tokenizer时,使用参数return_overflowing_tokens和stride对文本进行分块。这里打个比方,比如你有个句子如下:

《战国无双3》是由光荣和ω-force开发的战国无双系列的正统第三续作。本作以三大故事为主轴,分别是以武田信玄等人为主的《关东三国志》,织田信长等人为主的《战国三杰》,石田三成等人为主的《关原的年轻武者》,丰富游戏内的剧情。

但你的max_length=40,stride=1,那么这个句子可以被切分为如下:

句子1:《战国无双3》是由光荣和ω-force开发的战国无双系列的正统第三续作。本作以三大故事为主
句子2:轴,分别是以武田信玄等人为主的《关东三国志》,织田信长等人为主的《战国三杰》,石
句子3:田三成等人为主的《关原的年轻武者》,丰富游戏内的剧情。

这时候虽然切分了,但是如果你的答案刚好在句子1和句子2之间,那么你还是得不到答案,因此使用stride参数,可以将部分内容重叠,比如我们设置stride=10,那么得到新的句子如下

句子1:《战国无双3》是由光荣和ω-force开发的战国无双系列的正统第三续作。本作以三大故事为主
句子2:。本作以三大故事为主轴,分别是以武田信玄等人为主的《关东三国志》,织田信长等人为
句子3:志》,织田信长等人为主的《战国三杰》,石田三成等人为主的《关原的年轻武者》,丰富
句子4:原的年轻武者》,丰富游戏内的剧情。

可以看到新切分的句子中会出现重叠的内容,这样可以一定程度上保证答案被包括,缺点就是stride越长,答案没有被切分概率越小,但是切分的句子会越多,变相增加了训练工作量。

3 关键代码

3.1 数据集处理

1)首先你需要做的就是拼接question和context,并且还有实现分块,好在tokenizer已经具备了

tokenized_datas = tokenizer(text=datas["question"],
                                text_pair=datas["context"],
                                return_offsets_mapping=True,  # 返回token与input_ids的位置映射
                                return_overflowing_tokens=True,  # 设置将句子切分为多个句子(如果句子超过max_length的话)
                                stride=128,  # 切分的重叠token
                                max_length=512, truncation="only_second", padding="max_length")

2)找到答案在contex被token后的开始位置和结束位置,我们知道分词的结果可能是一个词被分为多个token,因此要找出答案被token后的位置,需要借助offset_mapping。offset_mapping的作用,就是描述每个词被token后的token位置,如下:

[(0, 0), (0, 1), (1, 2), (2, 4), (4, 5), (5, 6), (6, 7), (7, 8), (8, 9), (9, 10), (10, 11), (11, 12), (12, 13), (13, 14), (14, 15), (0, 0), (0, 1), (1, 2), (2, 3), (3, 4), (4, 5), (5, 6), (6, 8), (8, 9), (9, 10), (10, 11), (11, 12), (12, 13), (13, 14), (14, 15), (15, 16), (0, 0)] 

从上面可以看出,里面某个词占据了(2,4)的范围。通过offset_mapping,我们就能将真正的答案在token后的位置找出来

def process_function(datas):
    tokenized_datas = tokenizer(text=datas["question"],
                                text_pair=datas["context"],
                                return_offsets_mapping=True,  # 返回token与input_ids的位置映射
                                return_overflowing_tokens=True,  # 设置将句子切分为多个句子(如果句子超过max_length的话)
                                stride=128,  # 切分的重叠token
                                max_length=512, 
                                truncation="only_second",  # 截断直接断第二个内容,也就是context,不能截断question
                                padding="max_length")
    sample_mappings = tokenized_datas.pop("overflow_to_sample_mapping")
    start_positions = []  # 答案在token后的context的起始位置
    end_positions = []  # 答案在token后的context的结束位置
    data_ids = []
    for idx, _ in enumerate(sample_mappings):
        answer = datas["answers"][sample_mappings[idx]]
        answer_start = answer["answer_start"][0]
        answer_end = answer_start + len(answer["text"][0])
        context_start = tokenized_datas.sequence_ids(idx).index(1)
        context_end = tokenized_datas.sequence_ids(idx).index(None, context_start) - 1
        offset = tokenized_datas.get("offset_mapping")[idx]
        # 如果答案没有在context中
        if offset[context_end][1] < answer_start or offset[context_start][0] > answer_end:
            start_pos = 0
            end_pos = 0
        else:
            # 如果答案在context中
            token_index = context_start
            while token_index <= context_end and offset[token_index][0] < answer_start:
                token_index += 1
            start_pos = token_index
            token_index = context_end
            while token_index >= context_start and offset[token_index][1] > answer_end:
                token_index -= 1
            end_pos = token_index
        start_positions.append(start_pos)
        end_positions.append(end_pos)
        data_ids.append(datas["id"][sample_mappings[idx]])
        # 将question部分的offset_mapping设置为None,为了方便在评估时查找context时,快速过滤掉question部分
        tokenized_datas["offset_mapping"][idx] = [
            (o if tokenized_datas.sequence_ids(idx)[k] == 1 else None)
            for k, o in enumerate(tokenized_datas["offset_mapping"][idx])
        ]

    tokenized_datas["data_ids"] = data_ids
    tokenized_datas["start_positions"] = start_positions
    tokenized_datas["end_positions"] = end_positions
    return tokenized_datas
    

3.2 模型加载

model = BertForQuestionAnswering.from_pretrained(model_path)

注意:这里使用的是transformers中的BertForQuestionAnswering,该类对bert模型进行封装。如果我们不使用该类,需要自己定义一个model,继承bert,增加分类线性层。另外使用AutoModelForQuestionAnswering也可以,其实AutoModel最终返回的也是BertForQuestionAnswering,它是根据你config中的model_type去匹配的。
这里列一下BertForQuestionAnswering的关键源代码说明一下transformers帮我们做了哪些关键事情

# 在__init__方法中增加增加了线性层
self.bert = BertModel(config, add_pooling_layer=False)
self.qa_outputs = nn.Linear(config.hidden_size, config.num_labels)
# 将输出结果outputs取第一个返回值,也就是last_hidden_state
sequence_output = outputs[0]  #  shape为(batch_size, sequence_length, hidden_size)
# 将last_hidden_state输入到qa_outputs线性层中,获得logits
logits = self.qa_outputs(sequence_output)  # shape为(batch_size, sequence_length, 2)
# 将logits分为2个
start_logits, end_logits = logits.split(1, dim=-1)  # shape为(batch_size, sequence_length, 1)
# 分别得到start和end的位置
start_logits = start_logits.squeeze(-1).contiguous()  # shape为(batch_size, sequence_length)
end_logits = end_logits.squeeze(-1).contiguous()  # shape为(batch_size, sequence_length)

3.3 评估函数

评估函数来自大神:https://github.com/zyds/transformers-code,其中需要使用到nltk库

def evaluate_function(prepredictions):
    start_logits, end_logits = prepredictions[0]
    if start_logits.shape[0] == len(new_datasets["validation"]):
        p, r = get_result(start_logits, end_logits, datasets["validation"], new_datasets["validation"])
    else:
        p, r = get_result(start_logits, end_logits, datasets["test"], new_datasets["test"])
    return evaluate_cmrc(p, r)


def get_result(start_logits, end_logits, datas, features):
    predictions = {}
    references = {}
    # datas 和 feature的映射
    example_to_feature = collections.defaultdict(list)
    for idx, example_id in enumerate(features["data_ids"]):
        example_to_feature[example_id].append(idx)

    # 最优答案候选
    n_best = 20
    # 最大答案长度
    max_answer_length = 30

    for example in datas:
        example_id = example["id"]
        context = example["context"]
        answers = []
        for feature_idx in example_to_feature[example_id]:
            start_logit = start_logits[feature_idx]  # 预测结果开始位置
            end_logit = end_logits[feature_idx]     # 预测结果结束位置
            offset = features[feature_idx]["offset_mapping"]  # 每个词与token的映射
            start_indexes = numpy.argsort(start_logit)[::-1][:n_best].tolist()
            end_indexes = numpy.argsort(end_logit)[::-1][:n_best].tolist()
            for start_index in start_indexes:
                for end_index in end_indexes:
                    if offset[start_index] is None or offset[end_index] is None:
                        continue
                    if end_index < start_index or end_index - start_index + 1 > max_answer_length:
                        continue
                    answers.append({
                        "text": context[offset[start_index][0]: offset[end_index][1]],
                        "score": start_logit[start_index] + end_logit[end_index]
                    })
        if len(answers) > 0:
            best_answer = max(answers, key=lambda x: x["score"])
            predictions[example_id] = best_answer["text"]
        else:
            predictions[example_id] = ""
        references[example_id] = example["answers"]["text"]

    return predictions, references

4 整体代码

"""
基于BERT做阅读理解(问答任务)
1)数据集来自:cmrc2018
2)模型权重使用:bert-base-chinese
"""
# step 1 引入数据库
import nltk
import numpy
import collections
from datasets import DatasetDict
from evaluate.cmrc_eval import evaluate_cmrc
from transformers import BertForQuestionAnswering, TrainingArguments, Trainer, DefaultDataCollator, \
     pipeline, BertTokenizerFast

nltk.download("punkt")  # 评估函数中使用的库
model_path = "./model/tiansz/bert-base-chinese"
data_path = "data/cmrc2018"

# step 2 数据集处理
datasets = DatasetDict.load_from_disk(data_path)
tokenizer = BertTokenizerFast.from_pretrained(model_path)


def process_function(datas):
    tokenized_datas = tokenizer(text=datas["question"],
                                text_pair=datas["context"],
                                return_offsets_mapping=True,  # 返回token与input_ids的位置映射
                                return_overflowing_tokens=True,  # 设置将句子切分为多个句子(如果句子超过max_length的话)
                                stride=128,  # 切分的重叠token
                                max_length=512, truncation="only_second", padding="max_length")
    sample_mappings = tokenized_datas.pop("overflow_to_sample_mapping")
    start_positions = []  # 答案在输入的context的起始位置
    end_positions = []  # 答案在输入的context的结束位置
    data_ids = []
    for idx, _ in enumerate(sample_mappings):
        answer = datas["answers"][sample_mappings[idx]]
        answer_start = answer["answer_start"][0]
        answer_end = answer_start + len(answer["text"][0])
        context_start = tokenized_datas.sequence_ids(idx).index(1)
        context_end = tokenized_datas.sequence_ids(idx).index(None, context_start) - 1
        offset = tokenized_datas.get("offset_mapping")[idx]
        # 如果答案没有在context中
        if offset[context_end][1] < answer_start or offset[context_start][0] > answer_end:
            start_pos = 0
            end_pos = 0
        else:
            # 如果答案在context中
            token_index = context_start
            while token_index <= context_end and offset[token_index][0] < answer_start:
                token_index += 1
            start_pos = token_index
            token_index = context_end
            while token_index >= context_start and offset[token_index][1] > answer_end:
                token_index -= 1
            end_pos = token_index
        start_positions.append(start_pos)
        end_positions.append(end_pos)
        data_ids.append(datas["id"][sample_mappings[idx]])
        # 将question部分的offset_mapping设置为None,为了方便在评估时查找context时,快速过滤掉question部分
        tokenized_datas["offset_mapping"][idx] = [
            (o if tokenized_datas.sequence_ids(idx)[k] == 1 else None)
            for k, o in enumerate(tokenized_datas["offset_mapping"][idx])
        ]

    tokenized_datas["data_ids"] = data_ids
    tokenized_datas["start_positions"] = start_positions
    tokenized_datas["end_positions"] = end_positions
    return tokenized_datas


new_datasets = datasets.map(process_function, batched=True, remove_columns=datasets["train"].column_names)


# step 3 加载模型
model = BertForQuestionAnswering.from_pretrained(model_path)


# step 4 评估函数
def evaluate_function(prepredictions):
    start_logits, end_logits = prepredictions[0]
    if start_logits.shape[0] == len(new_datasets["validation"]):
        p, r = get_result(start_logits, end_logits, datasets["validation"], new_datasets["validation"])
    else:
        p, r = get_result(start_logits, end_logits, datasets["test"], new_datasets["test"])
    return evaluate_cmrc(p, r)


def get_result(start_logits, end_logits, datas, features):
    predictions = {}
    references = {}
    # datas 和 feature的映射
    example_to_feature = collections.defaultdict(list)
    for idx, example_id in enumerate(features["data_ids"]):
        example_to_feature[example_id].append(idx)

    # 最优答案候选
    n_best = 20
    # 最大答案长度
    max_answer_length = 30

    for example in datas:
        example_id = example["id"]
        context = example["context"]
        answers = []
        for feature_idx in example_to_feature[example_id]:
            start_logit = start_logits[feature_idx]  # 预测结果开始位置
            end_logit = end_logits[feature_idx]     # 预测结果结束位置
            offset = features[feature_idx]["offset_mapping"]  # 每个词与token的映射
            start_indexes = numpy.argsort(start_logit)[::-1][:n_best].tolist()
            end_indexes = numpy.argsort(end_logit)[::-1][:n_best].tolist()
            for start_index in start_indexes:
                for end_index in end_indexes:
                    if offset[start_index] is None or offset[end_index] is None:
                        continue
                    if end_index < start_index or end_index - start_index + 1 > max_answer_length:
                        continue
                    answers.append({
                        "text": context[offset[start_index][0]: offset[end_index][1]],
                        "score": start_logit[start_index] + end_logit[end_index]
                    })
        if len(answers) > 0:
            best_answer = max(answers, key=lambda x: x["score"])
            predictions[example_id] = best_answer["text"]
        else:
            predictions[example_id] = ""
        references[example_id] = example["answers"]["text"]

    return predictions, references


# step 5 创建TrainingArguments
# 原先train是1002条数据,但是拆分后的数据量是1439,batch_size=32,因此每个epoch的step=45,总step=135
train_args = TrainingArguments(output_dir="./checkpoints",      # 输出文件夹
                               per_device_train_batch_size=32,  # 训练时的batch_size
                               per_device_eval_batch_size=32,    # 验证时的batch_size
                               num_train_epochs=3,              # 训练轮数
                               logging_steps=20,                # log 打印的频率
                               evaluation_strategy="epoch",     # 评估策略
                               save_strategy="epoch",           # 保存策略
                               save_total_limit=3,              # 最大保存数
                               load_best_model_at_end=True      # 训练完成后加载最优模型
                               )

# step 6 创建Trainer
trainer = Trainer(model=model,
                  args=train_args,
                  train_dataset=new_datasets["train"],
                  eval_dataset=new_datasets["validation"],
                  data_collator=DefaultDataCollator(),
                  compute_metrics=evaluate_function,
                  )


# Step 7 模型训练
trainer.train()

# step 8 模型评估
evaluate_result = trainer.evaluate(new_datasets["test"])
print(evaluate_result)

# Step 9 模型预测
pipe = pipeline("question-answering", model=model, tokenizer=tokenizer)
result = pipe(question="乍都节公园位于什么地方?", context="乍都节公园位于泰国的首都曼谷的乍都节县,是拍凤裕庭路、威拍哇丽兰室路、甘烹碧路之间的一处公众游园地。")
print(result)

5 运行效果

在这里插入图片描述

注:本文参考来自大神:https://github.com/zyds/transformers-code

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/638145.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

基于SpringBoot和Hutool工具包实现的验证码案例

目录 验证码案例 1. 需求 2. 准备工作 3. 约定前后端交互接口 需求分析 接口定义 4. Hutool 工具介绍 5. 实现验证码 后端代码 前端代码 6. 运行测试 验证码案例 随着安全性的要求越来越高&#xff0c;目前项目中很多都会使用验证码&#xff0c;只要涉及到登录&…

一个用Java编写的屏幕测距工具,包括游戏地图测量功能

该程序提供了一个简单便捷的方式&#xff0c;在屏幕上测量距离&#xff0c;包括游戏地图分析在内。它允许用户准确确定屏幕上两点之间的距离&#xff0c;帮助游戏过程中的战略规划、资源管理和决策制定。 特点&#xff1a; 简单易用的界面&#xff1a;直观的控制使测量距离变得…

Marin说PCB之POC电路layout设计仿真案例---03

今天天中午午休的时候&#xff0c;我刚要打开手机的准备刷抖音看无忧传媒的学生们的“学习资料”的时候&#xff0c;看到CSDN -APP上有提醒&#xff0c;一看原来是一位道友发的一个问题&#xff1a; 本来小编最近由于刚刚从国外回来&#xff0c;手上的项目都已经结束了&#xf…

MQTT到串口的转发(node.js)

本文针对以下应用场景&#xff1a;已有通过串口通信的设备或软件&#xff0c;想要实现跨网的远程控制。 node.js安装 从 Node.js — Run JavaScript Everywhere下载LTS版本安装包&#xff0c;运行安装程序。&#xff08;傻瓜安装&#xff0c;按提示点击即可&#xff09; 设置环…

忍の摸头之术游戏娱乐源码

本资源提供给大家学习及参考研究借鉴美工之用&#xff0c;请勿用于商业和非法用途&#xff0c;无任何技术支持&#xff01; 忍の摸头之术游戏娱乐源码&#xff0c;抖音上面非常火的摸头杀画面,看得我眼花缭乱,源码拿去玩吧&#xff1b; 目录说明 忍の摸头之术&#xff1a;域…

idea新建项目/模块找不到Spring Initializr

idea创建项目找不到spring intellij&#xff0c;如下图解决 可能是没有下载spring的相应插件&#xff0c;或者没有启用对应的插件 我这里就是没有启用插件&#xff0c;导致的创建项目时找不到按件。 全部启用后&#xff0c;重启idea即可。 重启后可以看到出现了“Spring Initi…

【Andoird开发】android获取蓝牙权限,beacon,android-beacon-library

iBeacon 最先是苹果的技术&#xff0c;使用android-beacon-library包可以在android上开发iBeacon 技术。 iBeacon的发明意义重大。它是一种基于蓝牙低功耗&#xff08;Bluetooth Low Energy, BLE&#xff09;技术的定位系统&#xff0c;通过向周围发送信号来标识其位置。这项技…

Docker 容器间通讯

1、虚拟ip/访问 同一网络 安装docker时&#xff0c;docker会默认创建一个内部的桥接网络docker0&#xff0c;每创建一个容器分配一个虚拟网卡&#xff0c;容器之间(包括宿主机)可以根据分配的ip互相访问(ps:其他主机(包括其他主机的容器)无法ping通docker容器ip无法访问&#…

22个C语言小白常见问题总结

一.语言使用错误 在打代码的过程中&#xff0c;经常需要在中文与英文中进行转换&#xff0c;因此常出现一些符号一不小心就用错&#xff0c;用成中文。例如&#xff1a;“&#xff1b;”中文中的分号占用了两个字节&#xff0c;而英文中“;”分号只占用一个字节。编译器只能识…

mysql数据库主从复制,搭建从库

1 期望效果 假设我们现在有两个服务器&#xff0c;两个服务器都有数据库&#xff0c;然后我们命名一个叫主数据库&#xff08;Master&#xff09;&#xff0c;一个叫从数据库&#xff08;Slave&#xff09; 数据备份和容灾&#xff1a;通过主从复制&#xff0c;可以将主数据库…

计算机操作系统核心组件

我是荔园微风&#xff0c;作为一名在IT界整整25年的老兵&#xff0c;今天给大家讲讲操作系统。 操作系统核心组件 用户借助于一个或多个应用程序与操作系统进行交互&#xff0c;常常是通过一个称为shell的特殊应用程序进行的&#xff0c;shell也叫作命令解释器。105今天的大多…

SQL——SELECT相关的题目

目录 197、上升的温度 577、员工奖金 586、订单最多的客户 596、超过5名学生的课 610、判断三角形 620、有趣的电影 181、超过经理收入的员工 1179、重新格式化部门表 1280、学生参加各科测试的次数 1068、产品销售分析I 1075、项目员工I 1084、销售分析III 1327、列出指…

Qt 报错总结 No suitable kits found

目录 “No suitable kits found” 解决 解决方法参考&#xff1a; chatGPT辅助解决QT构建报错error: multiple target patterns 我的解决方法&#xff1a;把语言设置为空 “No suitable kits found” 解决 没有找到合适的kits套件&#xff0c;在安装Qt Creator时没有安装Min…

程序员做推广?我劝你别干

关注卢松松&#xff0c;会经常给你分享一些我的经验和观点。 这是卢松松会员专区&#xff0c;一位会员朋友的咨询&#xff0c;如果你也有自研产品&#xff0c;但不知道如何推广&#xff0c;一定要阅读本文!强烈建议收藏关注&#xff0c;因为你关注的人&#xff0c;决定你看到的…

Ubuntu切换内核版本

#安装内核安装工具 sudo apt-get install software-properties-common sudo add-apt-repository ppa:cappelikan/ppa sudo apt-get update sudo apt-get install mainline#安装指定内核版本(有些版本并不能安装成功) mainline install 5.14.10#更新GRUB配置 sudo update-grub#查…

Linux 软件包管理器 yum的下载、功能介绍及使用

&#x1fa90;&#x1fa90;&#x1fa90;欢迎来到程序员餐厅&#x1f4ab;&#x1f4ab;&#x1f4ab; 主厨&#xff1a;邪王真眼 主厨的主页&#xff1a;Chef‘s blog 所属专栏&#xff1a;青果大战linux 总有光环在陨落&#xff0c;总有新星在闪烁 Linux下的三种软件安装方…

burpsuite抓包响应报文乱码

1、响应报文中的中文信息乱码 2、解决办法 3、设置成功后重新发起请求

储油罐智控:ThingsBoard网关实现液位温度精准监测

储油罐是采油、炼油企业储存油品的重要设备&#xff0c;对储油罐液位、温度的实时数据监测对企业的库存和安全管理有着重大意义。 场景 对于企业&#xff0c;尤其是加油站来说&#xff0c;高效的罐体液位、温度监测对于优化燃油库存、防止短缺或过剩至关重要。不准确的燃油液位…

05Django项目--前端公共文件和其他html文件的适配

对应视频链接点击直达 Django项目--前端公共文件和其他html文件的适配 对应视频链接点击直达前端页面准备Pubilc页面设置 OVER&#xff0c;不会有人不会吧不会的加Q1394006513结语 接着上一节 前端页面准备 为了方便大家更好的复制&#xff0c;我把整个项目及templates文件夹和…

RabbitMQ(一)概述第一个应用程序

文章目录 概述AMQP和JMS官网安装开始第一个程序 概述 消息队列是实现应用程序和应用程序之间通信的中间件产品 AMQP和JMS 工作体系 官网 https://www.rabbitmq.com/ RabbitMQ是一款基于AMQP、由Erlang语言开发的消息队列产品 安装 # 拉取镜像 docker pull rabbitmq:3.13-m…
最新文章