【OpenVINO】基于 OpenVINO C# API 部署 RT-DETR 模型

基于 OpenVINO C# API 部署 RT-DETR 模型

  • 1. RT-DETR
  • 2. OpenVINO
  • 3. 环境配置
  • 4. 模型下载与转换
  • 5. C#代码实现
    • 5.1 模型推理类实现
      • 1. 模型推理类初始化
      • 2. 图片预测API
    • 5.2 模型数据处理类RTDETRProcess
      • 1. 定义RTDETRProcess
      • 2. 输入数据处理方法
      • 3. 预测结果数据处理方法
  • 6. 预测结果展示
  • 7. 平台推理时间测试
  • 8. 总结

  RT-DETR是在DETR模型基础上进行改进的,一种基于 DETR 架构的实时端到端检测器,它通过使用一系列新的技术和算法,实现了更高效的训练和推理,在前文我们发表了《基于 OpenVINO™ Python API 部署 RT-DETR 模型 | 开发者实战》和《基于 OpenVINO™ C++ API 部署 RT-DETR 模型 | 开发者实战》,在该文章中,我们基于OpenVINO™ Python 和 C++ API 向大家展示了的RT-DETR模型的部署流程,并分别展示了是否包含后处理的模型部署流程,为大家使用RT-DETR模型提供了很好的范例。
在实际工业应用时,有时我们需要在C#环境下使用该模型应用到工业检测中,因此在本文中,我们将向大家展示使用OpenVINO Csharp API 部署RT-DETR模型,并对比不同编程平台下模型部署的速度。
该项目所使用的全部代码已经在GitHub上开源,并且收藏在OpenVINO-CSharp-API项目里,项目所在目录链接为:

https://github.com/guojin-yan/OpenVINO-CSharp-API/tree/csharp3.0/tutorial_examples

也可以直接访问该项目,项目链接为:

https://github.com/guojin-yan/RT-DETR-OpenVINO.git

项目首发网址为:基于 OpenVINO™ C# API 部署 RT-DETR 模型 | 开发者实战

1. RT-DETR

  飞桨在去年 3 月份推出了高精度通用目标检测模型 PP-YOLOE ,同年在 PP-YOLOE 的基础上提出了 PP-YOLOE+。而继 PP-YOLOE 提出后,MT-YOLOv6、YOLOv7、DAMO-YOLO、RTMDet 等模型先后被提出,一直迭代到今年开年的 YOLOv8。
在这里插入图片描述

  YOLO 检测器有个较大的待改进点是需要 NMS 后处理,其通常难以优化且不够鲁棒,因此检测器的速度存在延迟。DETR是一种不需要 NMS 后处理、基于 Transformer 的端到端目标检测器。百度飞桨正式推出了——RT-DETR (Real-Time DEtection TRansformer) ,一种基于 DETR 架构的实时端到端检测器,其在速度和精度上取得了 SOTA 性能。

在这里插入图片描述

  RT-DETR是在DETR模型基础上进行改进的,它通过使用一系列新的技术和算法,实现了更高效的训练和推理。具体来说,RT-DETR具有以下优势:

  • 1、实时性能更佳:RT-DETR采用了一种新的注意力机制,能够更好地捕获物体之间的关系,并减少计算量。此外,RT-DETR还引入了一种基于时间的注意力机制,能够更好地处理视频数据。
  • 2、精度更高:RT-DETR在保证实时性能的同时,还能够保持较高的检测精度。这主要得益于RT-DETR引入的一种新的多任务学习机制,能够更好地利用训练数据。
  • 3、更易于训练和调参:RT-DETR采用了一种新的损失函数,能够更好地进行训练和调参。此外,RT-DETR还引入了一种新的数据增强技术,能够更好地利用训练数据。
    在这里插入图片描述

2. OpenVINO

  英特尔发行版 OpenVINO™工具套件基于oneAPI 而开发,可以加快高性能计算机视觉和深度学习视觉应用开发速度工具套件,适用于从边缘到云的各种英特尔平台上,帮助用户更快地将更准确的真实世界结果部署到生产系统中。通过简化的开发工作流程, OpenVINO™可赋能开发者在现实世界中部署高性能应用程序和算法。
在这里插入图片描述

  OpenVINO™ 2023.1于2023年9月18日发布,该工具包带来了挖掘生成人工智能全部潜力的新功能。生成人工智能的覆盖范围得到了扩展,通过PyTorch*等框架增强了体验,您可以在其中自动导入和转换模型。大型语言模型(LLM)在运行时性能和内存优化方面得到了提升。聊天机器人、代码生成等的模型已启用。OpenVINO更便携,性能更高,可以在任何需要的地方运行:在边缘、云中或本地。

3. 环境配置

本文中主要使用的项目环境可以通过NuGet Package包进行安装,Visual Studio 提供了NuGet Package包管理功能,可以通过其进行安装,主要使用下图两个程序包,C#平台安装程序包还是十分方便的,直接安装即可使用:
在这里插入图片描述
在这里插入图片描述
除了通过Visual Studio 安装,也可以通过 dotnet 指令进行安装,安装命令为:

dotnet add package OpenVINO.CSharp.Windows --version 2023.1.0.2
dotnet add package OpenCvSharp4.Windows --version 4.8.0.20230708

4. 模型下载与转换

  在之前的文章中我们已经讲解了模型的到处方式,大家可以参考下面两篇文章实现模型导出:《基于 OpenVINO™ Python API 部署 RT-DETR 模型 | 开发者实战》和《基于 OpenVINO™ C++ API 部署 RT-DETR 模型 | 开发者实战》。

5. C#代码实现

  为了更系统地实现RT-DETR模型的推理流程,我们采用C#特性,封装了RTDETRPredictor模型推理类以及RTDETRProcess模型数据处理类,下面我们将对这两个类中的关键代码进行讲解。

5.1 模型推理类实现

  C# 代码中我们定义的RTDETRPredictor模型推理类如下所示:

public class RTDETRPredictor
{
    public RTDETRPredictor(string model_path, string label_path,
    string device_name = "CPU", bool postprcoess = true)
    {}
    public Mat predict(Mat image)
    {}
    private void pritf_model_info(Model model)
    {}
    private void fill_tensor_data_image(Tensor input_tensor, Mat input_image)
    {}
    private void fill_tensor_data_float(Tensor input_tensor, float[] input_data, int data_size)
    {}
    RTDETRProcess rtdetr_process;
    bool post_flag;
    Core core;
    Model model;
    CompiledModel compiled_model;
    InferRequest infer_request;
}

1. 模型推理类初始化

  首先我们需要初始化模型推理类,初始化相关信息:

public RTDETRPredictor(string model_path, string label_path, string device_name = "CPU", bool postprcoess = true)
{
    INFO("Model path: " + model_path);
    INFO("Device name: " + device_name);
    core = new Core();
    model = core.read_model(model_path);
    pritf_model_info(model);
    compiled_model = core.compile_model(model, device_name);
    infer_request = compiled_model.create_infer_request();
    rtdetr_process = new RTDETRProcess(new Size(640, 640), label_path, 0.5f);
    this.post_flag = postprcoess;
}

  在该方法中主要包含以下几个输入:

  • model_path:推理模型地址;
  • label_path:模型预测类别文件;
  • device_name:推理设备名称;
  • post_flag:模型是否包含后处理,当post_flag = true时,包含后处理,当post_flag = false时,不包含后处理。

2. 图片预测API

  这一步中主要是对输入图片进行预测,并将模型预测结果会知道输入图片上,下面是这阶段的主要代码:

public Mat predict(Mat image)
{
    Mat blob_image = rtdetr_process.preprocess(image.Clone());
    if (post_flag)
    {
        Tensor image_tensor = infer_request.get_tensor("image");
        Tensor shape_tensor = infer_request.get_tensor("im_shape");
        Tensor scale_tensor = infer_request.get_tensor("scale_factor");
        image_tensor.set_shape(new Shape(new List<long> { 1, 3, 640, 640 }));
        shape_tensor.set_shape(new Shape(new List<long> { 1, 2 }));
        scale_tensor.set_shape(new Shape(new List<long> { 1, 2 }));
        fill_tensor_data_image(image_tensor, blob_image);
        fill_tensor_data_float(shape_tensor, rtdetr_process.get_input_shape().ToArray(), 2);
        fill_tensor_data_float(scale_tensor, rtdetr_process.get_scale_factor().ToArray(), 2);
    } else {
        Tensor image_tensor = infer_request.get_input_tensor();
        image_tensor.set_shape(new Shape(new List<long> { 1, 3, 640, 640 }));
        fill_tensor_data_image(image_tensor, blob_image);
    }
    infer_request.infer();
    ResultData results;
    if (post_flag)
    {
        Tensor output_tensor = infer_request.get_tensor("reshape2_95.tmp_0");
        float[] result = output_tensor.get_data<float>(300 * 6);
        results = rtdetr_process.postprocess(result, null, true);
    } else {
        Tensor score_tensor = infer_request.get_tensor(model.outputs()[1].get_any_name());
        Tensor bbox_tensor = infer_request.get_tensor(model.outputs()[0].get_any_name());
        float[] score = score_tensor.get_data<float>(300 * 80);
        float[] bbox = bbox_tensor.get_data<float>(300 * 4);
        results = rtdetr_process.postprocess(score, bbox, false);
    }
    return rtdetr_process.draw_box(image, results);
}

  上述代码的主要逻辑如下:首先是处理输入图片,调用定义的数据处理类,将输入图片处理成指定的数据类型;然后根据模型的输入节点情况配置模型输入数据,如果使用的是动态模型输入,需要设置输入形状;接下来就是进行模型推理;最后就是对推理结果进行处理,并将结果绘制到输入图片上。
  在模型数据加载时,此处重新设置了输入节点形状,因此此处支持动态模型输入;并且根据模型是否包含后处理分别封装了不同的处理方式,所以此处代码支持所有导出的预测模型。

5.2 模型数据处理类RTDETRProcess

1. 定义RTDETRProcess

  C# 代码中我们定义的RTDETRProcess模型推理类如下所示:

public class RTDETRProcess
{
    public RTDETRProcess(Size target_size, string label_path = null, float threshold = 0.5f, InterpolationFlags interpf = InterpolationFlags.Linear)
    {}
    public Mat preprocess(Mat image)
    {}
    public ResultData postprocess(float[] score, float[] bbox, bool post_flag)
    {}
    public List<float> get_input_shape()
    {}
    public List<float> get_scale_factor() { }
    public Mat draw_box(Mat image, ResultData results)
    {}
    private void read_labels(string label_path)
    {}
    private float sigmoid(float data)
    {}
    private int argmax(float[] data, int length)
    {}
    private Size target_size;               // The model input size.
    private List<string> labels;    // The model classification label.
    private float threshold;                    // The threshold parameter.
    private InterpolationFlags interpf;     // The image scaling method.
    private List<float> im_shape;
    private List<float> scale_factor;
}

2. 输入数据处理方法

  输入数据处理这一块需要获取图片形状大小以及图片缩放比例系数,最后直接调用OpenCV提供的数据处理方法,对输入数据进行处理。

public Mat preprocess(Mat image)
{
    im_shape = new List<float> { (float)image.Rows, (float)image.Cols };
    scale_factor = new List<float> { 640.0f / (float)image.Rows, 640.0f / (float)image.Cols };
    Mat input_mat = CvDnn.BlobFromImage(image, 1.0 / 255.0, target_size, 0, true, false);
    return input_mat;
}

3. 预测结果数据处理方法

public ResultData postprocess(float[] score, float[] bbox, bool post_flag)
{
    ResultData result = new ResultData();
    if (post_flag)
    {
        for (int i = 0; i < 300; ++i)
        {
            if (score[6 * i + 1] > threshold)
            {
                result.clsids.Add((int)score[6 * i]);
                result.labels.Add(labels[(int)score[6 * i]]);
                result.bboxs.Add(new Rect((int)score[6 * i + 2], (int)score[6 * i + 3],
                    (int)(score[6 * i + 4] - score[6 * i + 2]),
                    (int)(score[6 * i + 5] - score[6 * i + 3])));
                result.scores.Add(score[6 * i + 1]);
            }
        }
    }
    else
    {
        for (int i = 0; i < 300; ++i)
        {
            float[] s = new float[80];
            for (int j = 0; j < 80; ++j)
            {
                s[j] = score[80 * i + j];
            }
            int clsid = argmax(s, 80);
            float max_score = sigmoid(s[clsid]);
            if (max_score > threshold)
            {
                result.clsids.Add(clsid);
                result.labels.Add(labels[clsid]);
                float cx = (float)(bbox[4 * i] * 640.0 / scale_factor[1]);
                float cy = (float)(bbox[4 * i + 1] * 640.0 / scale_factor[0]);
                float w = (float)(bbox[4 * i + 2] * 640.0 / scale_factor[1]);
                float h = (float)(bbox[4 * i + 3] * 640.0 / scale_factor[0]);
                result.bboxs.Add(new Rect((int)(cx - w / 2), (int)(cy - h / 2), (int)w, (int)h));
                result.scores.Add(max_score);
            }
        }
    }
    return result;
}

  此处对输出结果做一个解释,由于我们提供了两种模型的输出,此处提供了两种模型的输出数据处理方式,主要区别在于是否对预测框进行还原以及对预测类别进行提取,具体区别大家可以查看上述代码。

6. 预测结果展示

  最后通过上述代码,我们最终可以直接实现RT-DETR模型的推理部署,RT-DETR与训练模型采用的是COCO数据集,最终我们可以获取预测后的图像结果,如图所示:
在这里插入图片描述
  上图中展示了RT-DETR模型预测结果,同时,我们对模型图里过程中的关键信息以及推理结果进行了打印:

[INFO]  Hello, World!
[INFO]  Model path: E:\Model\RT-DETR\RTDETR\rtdetr_r50vd_6x_coco.xml
[INFO]  Device name: CPU
[INFO]  Inference Model
[INFO]    Model name: Model from PaddlePaddle.
[INFO]    Input:
[INFO]       name: im_shape
[INFO]       type: float
[INFO]       shape: Shape : {1,2}
[INFO]       name: image
[INFO]       type: float
[INFO]       shape: Shape : {1,3,640,640}
[INFO]       name: scale_factor
[INFO]       type: float
[INFO]       shape: Shape : {1,2}
[INFO]    Output:
[INFO]       name: reshape2_95.tmp_0
[INFO]       type: float
[INFO]       shape: Shape : {300,6}
[INFO]       name: tile_3.tmp_0
[INFO]       type: int32_t
[INFO]       shape: Shape : {1}
[INFO]  Infer result:
[INFO]    class_id : 0, label : person, confidence : 0.9437, left_top : [504.0, 504.0], right_bottom: [596.0, 429.0]
[INFO]    class_id : 0, label : person, confidence : 0.9396, left_top : [414.0, 414.0], right_bottom: [506.0, 450.0]
[INFO]    class_id : 0, label : person, confidence : 0.8740, left_top : [162.0, 162.0], right_bottom: [197.0, 265.0]
[INFO]    class_id : 0, label : person, confidence : 0.8715, left_top : [267.0, 267.0], right_bottom: [298.0, 267.0]
[INFO]    class_id : 0, label : person, confidence : 0.8663, left_top : [327.0, 327.0], right_bottom: [346.0, 127.0]
[INFO]    class_id : 0, label : person, confidence : 0.8593, left_top : [576.0, 576.0], right_bottom: [611.0, 315.0]
[INFO]    class_id : 0, label : person, confidence : 0.8578, left_top : [104.0, 104.0], right_bottom: [126.0, 148.0]
[INFO]    class_id : 0, label : person, confidence : 0.8272, left_top : [363.0, 363.0], right_bottom: [381.0, 180.0]
[INFO]    class_id : 0, label : person, confidence : 0.8183, left_top : [349.0, 349.0], right_bottom: [365.0, 155.0]
[INFO]    class_id : 0, label : person, confidence : 0.8167, left_top : [378.0, 378.0], right_bottom: [394.0, 132.0]
[INFO]    class_id : 56, label : chair, confidence : 0.6448, left_top : [98.0, 98.0], right_bottom: [118.0, 250.0]
[INFO]    class_id : 56, label : chair, confidence : 0.6271, left_top : [75.0, 75.0], right_bottom: [102.0, 245.0]
[INFO]    class_id : 24, label : backpack, confidence : 0.6196, left_top : [64.0, 64.0], right_bottom: [84.0, 243.0]
[INFO]    class_id : 0, label : person, confidence : 0.6016, left_top : [186.0, 186.0], right_bottom: [199.0, 97.0]
[INFO]    class_id : 0, label : person, confidence : 0.5715, left_top : [169.0, 169.0], right_bottom: [178.0, 95.0]
[INFO]    class_id : 33, label : kite, confidence : 0.5623, left_top : [162.0, 162.0], right_bottom: [614.0, 539.0]

7. 平台推理时间测试

  为了评价不同平台的模型推理性能,在C++、C#平台分别部署了RT-DETR不同Backbone结构的模型,如下表所示:
在这里插入图片描述
  通过该表可以看出,不同Backbone结构的RT-DETR模型在C++、C#不同平台上所表现出来的模型推理性能基本一致,说明我们所推出的OpenVINO C# API 对模型推理性能并没有产生较大的影响。下图为模型推理时CPU使用以及内存占用情况,可以看出在本机设备上,模型部署时CPU占用在40%~45%左右,内存稳定在10G左右,所测试结果CPU以及内存占用未减去其他软件开销。
在这里插入图片描述
在这里插入图片描述

8. 总结

  在本项目中,我们介绍了OpenVINO C# API 部署RT-DETR模型的案例,并结合该模型的处理方式封装完整的代码案例,实现了在 Intel 平台使用OpenVINO C# API加速深度学习模型,有助于大家以后落地RT-DETR模型在工业上的应用。
  最后我们对比了不同Backbone结构的RT-DETR模型在C++、C#不同平台上所表现出来的模型推理性能,在C++与C#平台上,OpenVINO所表现出的性能基本一致。但在CPU平台下,RT-DETR模型推理时间依旧达不到理想效果,后续我们会继续研究该模型的量化技术,通过量化技术提升模型的推理速度。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/138688.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【实例分割】用自己数据集复现经典论文YOLACT

YOLACT&#xff1a;You Only Look At CoefficienTs &#x1f3c6;论文下载&#xff1a;paper &#x1f3c6;代码下载&#xff1a;code &#x1f3c6;论文详解&#xff1a;YOLACT 目录 &#x1f342;&#x1f342;1.安装环境 &#x1f342;&#x1f342;2.数据准备 &…

AIGC|如何将Milvus集成到LangFlow中?详细代码演示!

目录 一、基本介绍 二、修改langflow代码使其支持milvus 三、效果演示 langflow是一个LangChain UI&#xff0c;它提供了一种交互界面来使用LangChain&#xff0c;通过简单的拖拽即可搭建自己的实验、原型流。通过在langflow中引入Milvus&#xff0c;用户可以更方便地存储和…

Mac电脑安装打印机驱动

1.在打印机背面找到型号&#xff0c;当想要安装的驱动在官网找不到时可直接搜索该系列&#xff1a;比如MF系列 2.安装完成后需要添加打印机 当打印机和电脑在同一个WiFi下的时候查找打印机IP&#xff0c;输入IP后可以查到对应的打印机&#xff0c;添加后即可使用

动态库和静态库

目录 一、动态库和静态库二、静态库2.1 生成静态库2.2 库搜索路径 三、动态库3.1 生成动态库3.2 使用动态库3.3 运行动态库3.4 使用外部库3.5 库文件名称和引入库的名称 四、动静态库及周边知识一览图 一、动态库和静态库 静态库&#xff08;.a&#xff09;&#xff1a;程序在…

如何获取1688商品详情,价格,图片

1688是阿里巴巴旗下的B2B电子商务平台&#xff0c;主要面向国内的生产商和批发商。 通过获取到的跨境属性数据&#xff0c;可以了解到商品的跨境属性&#xff0c;例如商品的语言、原产地、适用场景等信息。这些数据可以帮助用户更好地了解商品的特点和质量&#xff0c;做出更明…

频谱测量---测量信号的功率

频谱测量 通道功率、带宽、均值频率、中位数频率、谐波失真。 使用 obw 和 powerbw 查找信号的 90% 占用带宽和 3-dB 带宽。计算功率谱的均值或中位数频率。估计给定频带上的功率。测量谐波失真。估计瞬时带宽、瞬时频率、频谱熵和谱峭度。 函数 功率和带宽 bandpowerBand…

【避雷选刊】Springer旗下2/3区,2个月录用!发文量激增,还能投吗?

计算机类 • 好刊解读 前段时间小编分析过目前科睿唯安数据库仍有8本期刊处于On Hold状态&#xff0c;其中包括4本SCIE、4本ESCI期刊&#xff08;&#x1f449;详情可见&#xff1a;避雷&#xff01;又有2本期刊被标记“On Hold”&#xff01;含中科院2区&#xff08;TOP&…

研究前沿 | Science:单细胞测序助力绘制迄今最完善的灵长类动物前大脑发育图谱

引言 大脑发育的关键分子机制在啮齿动物中已有所了解&#xff0c;但在灵长类动物中仍然不清楚&#xff0c;这限制了研究者对高级认知能力起源和功能障碍的理解。此外&#xff0c;在包括人类在内的灵长类动物中&#xff0c;关于轴突投射路径上的丘脑区域和皮层区域多样化的早期分…

优思学院|如何利用六西格玛提升自己的大格局?

首先&#xff0c;我想说大格局并不仅仅是一个概念&#xff0c;更是一种生活态度。拥有大格局的人通常能够超越日常琐事&#xff0c;将目光投向更广阔的未来。他们不会被小事困扰&#xff0c;而是将注意力集中在更大的目标和使命上。拥有大格局的人常常具备卓越的领导力和判断力…

AIGC实战——自编码器(Autoencoder)

AIGC实战——自编码器 0. 前言1. 自编码器原理2. 数据集与模型分析2.1 Fashion-MNIST 数据集2.2 自编码器架构 3. 去噪自编码器3.1 编码器3.2 解码器3.3 连接编码器和解码器3.4 训练自编码器3.5 重建图像 4. 可视化潜空间5. 生成新图像小结系列链接 0. 前言 自编码器 (Autoenc…

Linux常用的解压命令

笑小枫的专属目录 整啥幺蛾子Linux tar命令tar命令的参数范例 Linux unzip命令语法参数 整啥幺蛾子 今天在linux解压一个文件&#xff0c;顺手就来tar -zxvf xxxx &#xff0c;哦吼&#xff0c;爆竿了&#xff0c;套他猴子的。 好吧&#xff0c;承认 .gz文件解压多了&#xff…

基于springboot实现结合疫情情况的婚恋系统【项目源码】计算机毕业设计

基于springboot实现结合疫情情况的婚恋系统演示 SpringBoot框架 SpringBoot是一个全新开源的轻量级框架。基于Spring4.0设计&#xff0c;其不仅继承了Spring框架原来有的优秀特性&#xff0c;而且还通过简化配置文件来进一步简化了Spring应用的整个搭建以及开发过程。另外在原…

电脑一直IP地址错误无法上网怎么办?

电脑出现IP地址错误&#xff0c;就将无法正常上网&#xff0c;那么&#xff0c;电脑一直IP地址错误无法上网怎么办呢&#xff1f;下面我们就一起来了解一下。 方法1. 确认是否禁用本地连接 你需要先确定是否禁用了本地网络连接&#xff0c;如果发现禁用&#xff0c;则将其启用…

理事长走进统信软件,深度探讨社区发展规划 | 理事长走进系列

10 月 19 日&#xff0c;龙蜥社区“理事长走进理事单位系列交流会”活动第二期开展&#xff0c;本期走进龙蜥社区副理事长单位——统信软件&#xff0c;会议共出席 17 人。会上回顾了统信软件过去在龙蜥社区的贡献和投入&#xff0c;并共同对未来的合作计划和诉求进行了深度讨论…

解决任务栏卡死

近期许多Win10用户反映在开机进入系统后遇到了任务栏卡顿、无法正常使用的问题&#xff0c;虽然桌面能够正常操作&#xff0c;但任务栏问题依然影响了用户的使用体验。 对“Windows资源管理器”进行重启 你可以尝试按下“CtrlAltDel”快捷键&#xff0c;打开“任务管理器”&a…

Android Studio 代码上传gitLab

1、项目忽略文件 2选择要上传的项目 3、添加 首次提交需要输入url 最后在push

通过流量分析查看业务系统运行和访问情况

在当今数字化时代&#xff0c;应用程序的运行和访问情况对于企业和组织来说至关重要。无论是在线销售平台、移动应用还是企业内部系统&#xff0c;应用的性能和可用性直接影响着用户体验、业务流程以及组织效率。因此&#xff0c;对应用的运行和访问情况进行全面分析和评估&…

使用阿里云服务器学习Docker

首先我这里选择的系统服务器是CentOS 7.9 64位 因为centos系统里面的安装指令是&#xff1a;yum,而非apt-get. yum install docker -y试着建立一个容器&#xff1a; docker run -d -p 80:80 httpd启动docker的守护进程&#xff1a; sudo systemctl start docker 查看Docke…

Linux常用的压缩命令

笑小枫的专属目录 少整花活&#xff0c;直接干货Linux gzip命令语法功能参数 Linux zip命令语法参数 少整花活&#xff0c;直接干货 本文的来源就是因为上篇文章Linux常用的解压命令&#xff0c;解压整了&#xff0c;顺手整理了一波压缩命令。 Linux gzip命令 减少文件大小有…

包装类、自动装箱、自动拆箱是什么?有哪些注意点?

1、包装类 Java中的数据类型总体上分为基本数据类型和引用数据类型。引用类型的数据可以通过对象的属性和方法来进行操作&#xff0c;但对于基本数据类型的数据&#xff0c;我们能不能像操作对象那样来操作呢&#xff1f;为了实现这个目标&#xff0c;Java为8种基本数据类型分…