【CV-CUDA实战】使用Python+TensorRT+CVCUDA优化YOLOv8

目录

      • 什么是CV-CUDA
      • 环境准备
        • 准备CV-CUDA静态库
        • 解压
        • 添加至变量
        • 将PyBind静态库复制到env下
        • 算子设计
          • 前处理算子
        • TensorRT模型加载
        • 后处理函数
      • 完整代码
      • 输出演示
      • 为什么重新写了?
      • 结语

什么是CV-CUDA

NVIDIA CV-CUDA™ 是一个开源项目,用于构建云规模人工智能 (AI) 成像和计算机视觉 (CV) 应用程序。 它使用图形处理单元 (GPU) 加速来帮助开发人员构建高效的预处理和后处理管道。 它可以将吞吐量提高 10 倍以上,同时降低云计算成本。
请添加图片描述

环境准备

准备CV-CUDA静态库

首先我们需要访问CV-CUDA Github仓库
去下载与您系统架构相对应的静态库文件,以我为例,我需要下载:

  • cvcuda-dev-0.7.0_beta-cuda11-x86_64-linux.tar.xz
  • cvcuda-lib-0.7.0_beta-cuda11-x86_64-linux.tar.xz
  • cvcuda-python3.10-0.7.0_beta-cuda11-x86_64-linux.tar.xz
  • cvcuda-tests-0.7.0_beta-cuda11-x86_64-linux.tar.xz

请注意!下载的静态库的版本取决你的CUDA版本和目前正在使用的Python版本(这是由于PyBind11导致的)。

解压
tar -xvf cvcuda-dev-0.7.0_beta-cuda11-x86_64-linux.tar.xz
tar -xvf cvcuda-lib-0.7.0_beta-cuda11-x86_64-linux.tar.xz
tar -xvf cvcuda-python3.10-0.7.0_beta-cuda11-x86_64-linux.tar.xz
tar -xvf cvcuda-tests-0.7.0_beta-cuda11-x86_64-linux.tar.xz
添加至变量

所有解压后的静态库文件会被解压到一个名为opt的目录中,但是请注意,这个opt不是Linux根文件系统的/opt,请务必做出区分!
请在~/.bashrc文件中添加以下内容:

export LD_LIBRARY_PATH=$HOME/opt/nvidia/cvcuda0/lib/x86_64-linux-gnu

接下来使~/.bashrc生效并加载静态库

source ~/.bashrc && ldconfig

使用ldconfig命令检查静态库是否被加载:

ldconfig -p | grep nvcv

如果看到以下结果说明静态库已被加载成功:

libnvcv_types.so.0 (libc6,x86-64) => /usr/local/cuda/targets/x86_64-linux/lib/libnvcv_types.so.0
将PyBind静态库复制到env下

在您的解压目录下,应该有一个名为cvcuda.cpython-310-x86_64-linux-gnu.so的文件,请将此文件复制到以下路径:

$PYTHON_HOME/site-packages/

以我的情况为例,我所使用的是anaconda3,因此这个路径是:

/home/elin/anaconda3/envs/jetsonsim/lib/python3.10/site-packages

使用import命令来检查cvcuda是否可用:

>>> import cvcuda
>>>

如果没有报错则说明cvcuda已经被加载成功了。

算子设计
前处理算子

由于YOLOv8模型接受一个640x640,batch_size为1的RGB图像,因此我们的前处理算子可以设计成:

def preprocess(self,imageFrame:np.ndarray) -> torch.Tensor:
        # 首先将输入的Numpy矩阵转换成Pytorch张量
        imageFrame = torch.tensor(imageFrame,device="cuda",dtype=torch.uint8)
        self.imageHeight,self.imageWidth = imageFrame.shape[:2]
        # 由于OpenCV读取的图像是HWC格式,
        # 因此CVCUDA需要将图像张量按此格式进行转换
        imageTensor = cvcuda.as_tensor(imageFrame,"HWC")
        # 使用GPU上的色域转换和resize算子进行处理
        imageTensor = cvcuda.cvtcolor(imageTensor,cvcuda.ColorConversion.BGR2RGB)
        imageTensor = cvcuda.resize(imageTensor,(self.inputWidth,self.inputHeight,3))
        # 将CVCUDA张量转移成Pytorch张量
        # 由于CVCUDA张量并未实现运算符重载,所以这一步是必要的
        # 以便我们处进行二值化和后续TensorRT模型的推理
        imageData = torch.as_tensor(imageTensor.cuda(),device="cuda")
        imageData = imageData / 255.0
        # 使用维度转置将图像扩增至(1,3,640,640)
        imageData = imageData.transpose(0,2).transpose(1,2).unsqueeze(0)
        return imageData # 返回GPU张量,以避免TensorRT推理前的GPU显存拷贝

以下是前处理算子的工作示意图:
请添加图片描述

TensorRT模型加载

在TensorRT模型的加载上,我使用了NVIDIA提供的一个非常还用的工具:torch2trt,它提供了类似Pytorch的API以加载并调用TensorRT模型,您可以使用以下命令来安装torch2trt:

pip install git+https://github.com/NVIDIA-AI-IOT/torch2trt.git

在真正读取TensorRT模型之前,你仍然需要安装TensorRT的Python API,它通常位于您TensorRT解压路径下的python目录下,请按照自己的Python版本按需安装。

接下来我们需要反序列化我们的YOLOv8 TensorRT模型:

import tensorrt as trt
from torch2trt import TRTModule
self.logger = trt.Logger(trt.Logger.INFO) # 初始化TensorRT日志类
# 反序列化YOLOv8模型
with open("../gpupipe/model/best.engine","rb") as f, trt.Runtime(self.logger) as runtime:
	self.engine = runtime.deserialize_cuda_engine(f.read())
# 使用torch2trt下TRTMoudle类来加载TensorRT引擎
self.TRTNet = TRTModule(input_names=[self.inputName],output_names=[self.outputName],engine=self.engine)

以上代码中:

  • input_name:代表您的YOLOv8模型的输入名称,如果您使用的是Ultralytics的工具进行训练的话,那么该值通常为:images
  • output_name:代表您的YOLOv8模型的输出名称,如果您使用的是Ultralytics的工具进行训练的话,那么该值通常为:output0
  • engine:代表反序列化后的TensorRT二进制对象。

正如我们前面有提到的一样,torch2trt为开发者提供了类Pytorch的API,因此我们的推理函数十分简单:

def inference(self,processedFrame:torch.Tensor) -> torch.Tensor:
    return self.TRTNet(processedFrame)
后处理函数

本章是整个pipeline最为重要的部分,这里我会着重讲解。
YOLOv8的输出大小通常取决于nc(num_classes)的大小,无论任何尺寸的YOLOv8模型最终都将输出8400条记录。这也就意味着我们需要遍历8400xnc个数据项!!这显然是没办法用循环来实现的。
在CPU环境上,我使用了Pandas进行向量化处理,得到了约9-10FPS美妙的成绩,具体实现代码如下:

output = np.transpose(np.squeeze(output[0])) # 由于YOLOv8的输出是(1,nc,8400),为了方便处理所以需要转置
df = pd.DataFrame(output)
x_factor = self.imageWidth / self.inputWidth
y_factor = self.imageHeight / self.inputHeight

df['amax'] = np.amax(df.iloc[:,4:self.nc+4],axis=1)
df['argmax'] = np.where(df.iloc[:,4:self.nc+4]==df['amax'].values[:,None])[1]
df = df[df['amax'] > self.confidenceThres]
boxes = df.iloc[:,0:4].to_numpy()
scores = df['amax'].to_numpy()
class_ids = df['argmax'].to_numpy()

# apply factor to boxes
boxes[:,0] = (boxes[:,0] - boxes[:,2]/2.0) * x_factor
boxes[:,1] = (boxes[:,1] - boxes[:,3]/2.0) * y_factor
boxes[:,2] = boxes[:,2] * x_factor
boxes[:,3] = boxes[:,3] * y_factor

在加速计算领域有一个常用的公式用于计算一个可并行算法的加速比,称之为阿姆达尔定律:
S = 1 ( 1 − p ) + p N S = \frac{1}{(1-p) + \frac{p}{N}} S=(1p)+Np1
其中:

  • S S S代表着加速
  • P P P代表并行化后的代码运行时间占比
  • N N N代表并行代码在执行时使用的内核数量

因此在忽略了 P P P的大小的情况下,以笔者的GeForce RTX3080Ti笔记本GPU为例,我的GPU包含7424个CUDA Cores,而我的12代12800HX具备8P+8E,总计16个内核。因此能够利用CUDA GPU加速特征提取显得尤为重要。
通过观察CPU代码可知:

  • 每一条记录的前四位代表着锚点框的 x x x y y y和长宽。
  • 而后面的所有列均为每个类别的置信度信息
  • 使用amaxargmax来获取最佳类别信息

因此,我们使用Pytorch得到了如下的代码:

output = torch.transpose(torch.squeeze(output),0,1).cuda()
x_factor = self.imageWidth / self.inputWidth
y_factor = self.imageHeight / self.inputHeight

# Process model output
argmax = torch.argmax(output[:,4:84],dim=1)
amax = torch.max(output[:,4:84],dim=1).values

# Concate tensors
output = torch.cat((output,torch.unsqueeze(argmax,1),torch.unsqueeze(amax,1)),dim=1)
output = output[output[:,-1] > self.confidenceThres]

boxes = output[:,:4]
class_ids = output[:,-2]
scores = output[:,-1]

boxes[:,0] = (boxes[:,0] - boxes[:,2]/2.0) * x_factor
boxes[:,1] = (boxes[:,1] - boxes[:,3]/2.0) * y_factor
boxes[:,2] = boxes[:,2] * x_factor
boxes[:,3] = boxes[:,3] * y_factor

经过优化后,目前算子的运行速度大概在24-30FPS左右,提升了约2~3倍!
搞定了特征提取后,接下来我们要进行非极大值抑制和预测信息绘制了。
由于CV-CUDA对NMS算子的限制,我们需要确保输入的置信度分数和锚点框应满足一下大小:

  • BBox(锚点框信息):(batch_size,shape,4),数据类型为torch.int16
  • score(置信度信息):(batch_size,1),数据类型建议为torch.float32

以我的情况,我使用了如下的代码进行实现:

# 制备CVCUDA需要的数据类型和大小
boxes = boxes.to(torch.int16).reshape(1,-1,4)
scores = scores.to(torch.float32).reshape(1,-1)
class_ids = class_ids.to(torch.int16)
# 将Pytorch张量转换为CVCUDA张量,同时确保输入的张量使用torch.Tensor.contiguous()确保其内存是可连续的
cvcuda_boxes = cvcuda.as_tensor(boxes.contiguous().cuda())
cvcuda_scores = cvcuda.as_tensor(scores.contiguous().cuda())
# 使用NMS算法
nms_masks = cvcuda.nms(cvcuda_boxes,cvcuda_scores,self.confidenceThres,self.iouThres)
# 转换回Pytorch算子
nms_masks_pyt = torch.as_tensor(
    nms_masks.cuda(),device="cuda",dtype=torch.bool
)

需要指出的是,cvcuda的nms算子返回的是一个 ∈ [ 0 , 1 ] ∈[0,1] [0,1]值域的掩码,因此我们需要将cvcuda张量转换为Pytorch的布尔类型张量,并使用torch.where()函数得到最终的NMS筛选索引:

# 将锚点框信息和置信度分数转换回原本的大小
boxes = boxes.reshape(-1,4)
scores = scores.reshape(-1)
# 拷贝到Numpy以方便进行遍历
indices = torch.where(nms_masks_pyt == 1)[1].cpu().numpy()

接下来我们需要创建两个列表,用于存储cvcuda.BndBoxIcvcuda.Label对象。

bbox_list,text_list = [],[]

遍历所有经过NMS处理后的信息,并将对应的锚点框和标签进行存储:

for i in indices:
	  box = boxes[i]
	  score = scores[i]
	  classIndex = class_ids[i]
	  bbox_list.append(
	      cvcuda.BndBoxI(
	          box = tuple(box),
	          thickness = 2,
	          borderColor = tuple(self.colorPalette[classIndex].tolist()),
	          fillColor = (0,0,0,0)
	      )
	  )
	  # 计算标签的X和Y坐标
	  labelX = box[0]
	  labelY = box[1] - 10 if box[1] - 10 > 10 else box[1] + 10
	  text_list.append(
	      cvcuda.Label(
	          utf8Text = '{}: {}'.format(self.classes[classIndex],str(float(score.amax().cpu().numpy()) * 100)[0:5] + '%'),
	          fontSize = 6,
	          tlPos = (labelX,labelY),
	          fontColor = (255,255,255),
	          bgColor = tuple(self.colorPalette[classIndex].tolist())
	      )
	  )

如果您想了解这些对象(或者C++结构体)的具体参数信息,详情可参阅CVCUDA的Types.hpp文件,该文件中包含了CVCUDA所有常见对象类型的定义信息。

在遍历了所有锚点框和类别后,我们需要将每个预测结果绘制到画面上,这就不得不提到CVCUDA又一个优化函数:cvcuda.osd_into()了。
以往我们使用CPU算子上需要使用类似于cv2.putText()cv2.rectangle()函数进行渲染。在C++上,这或许比较理想,我们可以使用OpenMP来借助多线程优化这个过程。
可是现在的情况是Python,受限于GIL的限制,我们无法真正发挥多核处理器的优势,这也就意味着我们只能一个一个将预测信息绘制到画面上。

cvcuda.osd_into()函数则允许CUDA GPU并行的将每个预测结果渲染到画面上,而不会像OpenCV那样一个个的单独渲染。
请添加图片描述
cvcuda.osd_into()函数接受三个参数:

  • src_tensor:输入图像张量,接受HWC格式,或NHWC格式。
  • dest_tensor:输出图像张量,和src一样接受HWC和NHWC格式
  • elements:输入的cvcuda.Elements()元素列表,用于渲染到目标图像上。

接下来是代码实现:

# Draw the bounding boxes and labels on the image
batch_bounding_boxes = cvcuda.Elements(elements=[bbox_list])
batch_text = cvcuda.Elements(elements=[text_list])

cvcuda.osd_into(frame_hwc,frame_hwc,batch_bounding_boxes)
cvcuda.osd_into(frame_hwc,frame_hwc,batch_text)

最后我们将输入图像从cvcuda张量拷贝会Numpy矩阵渲染FPS信息(可选):

# calculate the FPS
self.fpsCounter += 1
elapsed = (datetime.now() - self.fpsTimer).total_seconds()
if elapsed > 1.0:
    self.fps = self.fpsCounter / elapsed
    self.fpsCounter = 0
    self.fpsTimer = datetime.now()
# draw the FPS counter
cv2.putText(outputFrame, "FPS: {:.2f}".format(self.fps), (10, 30), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0,0,255),1, cv2.LINE_AA)
# draw current time on the top right of frame
cv2.putText(outputFrame, datetime.now().strftime("%Y %I:%M:%S%p"), (self.imageWidth - 150, 30), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0,0,255),1, cv2.LINE_AA)
return outputFrame

完整代码

import cvcuda
import tensorrt as trt
from datetime import datetime
import yaml
import numpy as np
import torch
from torch2trt import TRTModule
import cv2
class VideoProcessor:
   def __init__(self) -> None: 
       self.config = yaml.load(open("../gpupipe/config/data.yaml"), Loader=yaml.FullLoader)
       self.modelName = self.config['modelName']
       self.modelVersion = self.config['modelVersion']
       self.inputName = self.config['inputName']
       self.outputName = self.config['outputName']
       self.confidenceThres = self.config['confidenceThreshold']
       self.inputWidth, self.inputHeight = self.config['inputWidth'],self.config['inputHeight']
       self.iouThres = self.config['iouThreshold']
       self.classes = self.config["names"]
       self.colorPalette = np.random.uniform(0, 255, size=(len(self.classes), 3)).astype(np.uint8)
       # create a FPS counter
       self.fps = 0
       self.fpsCounter = 0
       self.fpsTimer = datetime.now()
       # Initalize TensorRT Engine
       self.logger = trt.Logger(trt.Logger.INFO)
       with open("../gpupipe/model/best.engine","rb") as f, trt.Runtime(self.logger) as runtime:
           self.engine = runtime.deserialize_cuda_engine(f.read())
       self.TRTNet = TRTModule(input_names=[self.inputName],output_names=[self.outputName],engine=self.engine)
   def preprocess(self,imageFrame:np.ndarray) -> torch.Tensor:
       # convet the image to a cuda tensor
       imageFrame = torch.tensor(imageFrame,device="cuda",dtype=torch.uint8)
       self.imageHeight,self.imageWidth = imageFrame.shape[:2]
       imageTensor = cvcuda.as_tensor(imageFrame,"HWC")
       imageTensor = cvcuda.cvtcolor(imageTensor,cvcuda.ColorConversion.BGR2RGB)
       imageTensor = cvcuda.resize(imageTensor,(self.inputWidth,self.inputHeight,3))
       # convert torch tensor to numpy array
       imageData = torch.as_tensor(imageTensor.cuda(),device="cuda")
       imageData = imageData / 255.0
       imageData = imageData.transpose(0,2).transpose(1,2).unsqueeze(0)
       return imageData

   def postProcess(self,inputFrame,output):

       frame_hwc = cvcuda.as_tensor(
           torch.as_tensor(inputFrame).cuda(),
           "HWC"
       )

       output = torch.transpose(torch.squeeze(output),0,1).cuda()
       x_factor = self.imageWidth / self.inputWidth
       y_factor = self.imageHeight / self.inputHeight

       # Process model output
       argmax = torch.argmax(output[:,4:84],dim=1)
       amax = torch.max(output[:,4:84],dim=1).values

       # Concate tensors
       output = torch.cat((output,torch.unsqueeze(argmax,1),torch.unsqueeze(amax,1)),dim=1)
       output = output[output[:,-1] > self.confidenceThres]

       boxes = output[:,:4]
       class_ids = output[:,-2]
       scores = output[:,-1]

       boxes[:,0] = (boxes[:,0] - boxes[:,2]/2.0) * x_factor
       boxes[:,1] = (boxes[:,1] - boxes[:,3]/2.0) * y_factor
       boxes[:,2] = boxes[:,2] * x_factor
       boxes[:,3] = boxes[:,3] * y_factor

       # Convert to boxes dtype to 16bit Signed Integer
       boxes = boxes.to(torch.int16).reshape(1,-1,4)
       scores = scores.to(torch.float32).reshape(1,-1)
       class_ids = class_ids.to(torch.int16)
       # Converting to cvcuda tensor
       cvcuda_boxes = cvcuda.as_tensor(boxes.contiguous().cuda())
       cvcuda_scores = cvcuda.as_tensor(scores.contiguous().cuda())
       # Apply non-maximum suppression to filter out overlapping bounding boxes
       nms_masks = cvcuda.nms(cvcuda_boxes,cvcuda_scores,self.confidenceThres,self.iouThres)
       nms_masks_pyt = torch.as_tensor(
           nms_masks.cuda(),device="cuda",dtype=torch.bool
       )

       # Convert back boxes and scores into it's original shape
       boxes = boxes.reshape(-1,4)
       scores = scores.reshape(-1)

       indices = torch.where(nms_masks_pyt == 1)[1].cpu().numpy()

       bbox_list,text_list = [],[]
       
       for i in indices:
           box = boxes[i]
           score = scores[i]
           classIndex = class_ids[i]
           bbox_list.append(
               cvcuda.BndBoxI(
                   box = tuple(box),
                   thickness = 2,
                   borderColor = tuple(self.colorPalette[classIndex].tolist()),
                   fillColor = (0,0,0,0)
               )
           )
           labelX = box[0]
           labelY = box[1] - 10 if box[1] - 10 > 10 else box[1] + 10
           text_list.append(
               cvcuda.Label(
                   utf8Text = '{}: {}'.format(self.classes[classIndex],str(float(score.amax().cpu().numpy()) * 100)[0:5] + '%'),
                   fontSize = 6,
                   tlPos = (labelX,labelY),
                   fontColor = (255,255,255),
                   bgColor = tuple(self.colorPalette[classIndex].tolist())
               )
           )

       # Draw the bounding boxes and labels on the image
       batch_bounding_boxes = cvcuda.Elements(elements=[bbox_list])
       batch_text = cvcuda.Elements(elements=[text_list])

       cvcuda.osd_into(frame_hwc,frame_hwc,batch_bounding_boxes)
       cvcuda.osd_into(frame_hwc,frame_hwc,batch_text)

       outputFrame = torch.as_tensor(frame_hwc.cuda(),device="cuda").cpu().numpy()

       # calculate the FPS
       self.fpsCounter += 1
       elapsed = (datetime.now() - self.fpsTimer).total_seconds()
       if elapsed > 1.0:
           self.fps = self.fpsCounter / elapsed
           self.fpsCounter = 0
           self.fpsTimer = datetime.now()
       # draw the FPS counter
       cv2.putText(outputFrame, "FPS: {:.2f}".format(self.fps), (10, 30), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0,0,255),1, cv2.LINE_AA)
       # draw current time on the top right of frame
       cv2.putText(outputFrame, datetime.now().strftime("%Y %I:%M:%S%p"), (self.imageWidth - 150, 30), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0,0,255),1, cv2.LINE_AA)
       return outputFrame
   def inference(self,processedFrame:torch.Tensor) -> torch.Tensor:
       return self.TRTNet(processedFrame)
   def processing(self,frame):
       image_data = self.preprocess(frame)
       output = self.inference(image_data)
       outputFrame = self.postProcess(frame,output)
       return outputFrame

输出演示

请添加图片描述

为什么重新写了?

因为之前的Pipeline存在一些BUG,另外就是部分算子没有使用CVCUDA实现,而现在的Pipeline全部使用CVCUDA实现。

结语

这里是Day,如果觉得这篇博客有用的话,请留下你的赞和收藏,十分感谢!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/594149.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【数据结构(邓俊辉)学习笔记】列表02——无序列表

文章目录 0.概述1.插入与构造1.1 插入1.1.1 前插入1.1.2后插入1.1.3 复杂度 1.2 基于复制构造1.2.1 copyNodes()1.2.2 基于复制构造1.2.3 复杂度 2.删除与析构2.1 删除2.1.1 实现2.1.2 复杂度 2.2 析构2.2.1 释放资源及清除节点2.2.2 复杂度 3.查找3.1 实现3.2 复杂度 4.唯一化…

每天五分钟深度学习:数学中常见函数中的导数

本文重点 导数是微积分学中的一个核心概念,它描述了函数在某一点附近的变化率。在物理学、工程学、经济学等众多领域中,导数都发挥着极其重要的作用。本文旨在详细介绍数学中常见函数的导数,以期为读者提供一个全面而深入的理解。 数学中常见的导数 常数函数的导数 对于常数…

Raft共识算法笔记,MIT6.824,

处理leader和follow的一个重要思路是多数投票,确保系统中存在奇数个服务器(例如3台)。进行任何操作都需要来自多数服务器的同意,例如3台服务器中的2台。如果没有多数同意,系统会等待。为什么多数投票有助于避免脑裂问题…

springboot项目 字典/枚举翻译 终极解决方案 AOP+自定义注解+递归实体字段+实体动态三级缓存+责任链+多种转换方式

目录 前言实现思路技术确定 食用方式效果使用样例项目中使用第一步 复制包第二步 实现LoadDictDatabase并将其注入容器第三步 标识需要翻译的字段第四步 标识需要翻译的方法第五步 调用需要翻译的方法 实现细节TODO 前言 字典,即在存储介质中进行存储时,为了避免业务上对其名称…

计数排序,基数排序,桶排序

目录 计数排序: 基数排序: 桶排序: 计数排序: 计数排序是一种非比较型整数排序算法,特别适用于一定范围内的整数排序。它的核心思想是使用一个额外的数组(称为计数数组)来计算每个值的出现次数,然后根据这些计数信…

[贪心] 区间选点问题

905. 区间选点 - AcWing题库 思路&#xff1a;就是将所有区间按照右端点排序&#xff0c; 然后选取一些区间的右端点 代码&#xff1a; #include <iostream> #include <algorithm> #include <vector> using namespace std; const int N 100010;typedef p…

Flask与HTTP

一、请求响应循环 “请求-响应循环”&#xff1a;客户端发出请求&#xff0c;服务器处理请求并返回响应。 Flask Web程序的工作流程&#xff1a; 当用户访问一个URL&#xff0c;浏览器便生成对应的HTTP请求&#xff0c;经由互联网发送到对应的Web服务器。Web服务器接收请求&a…

信号,信号列表,信号产生方式,信号处理方式

什么是信号 信号在我们的生活中非常常见&#xff1b;如红绿灯&#xff0c;下课铃&#xff0c;游戏团战信号&#xff0c;这些都是信号&#xff1b;信号用来提示接收信号者行动&#xff0c;但接收信号的人接收到信号会进行一系列的行为&#xff0c;完成某个动作&#xff1b;这就…

基于Java EE平台项目管理系统的设计与实现(论文 + 源码)

【免费】基于javaEE平台的项目管理系统.zip资源-CSDN文库https://download.csdn.net/download/JW_559/89267688 基于Java EE平台项目管理系统的设计与实现 摘 要 随着社会信息化的发展&#xff0c;很多的社会管理问题也一并出现了根本性变化&#xff0c;项目公司的报表及文…

【YOLO】目标检测 YOLO框架之train.py参数含义及配置总结手册(全)

1.一直以来想写下基于YOLO开源框架的系列文章&#xff0c;该框架也是日常项目开发中常用的一款工具&#xff0c;最近刚好挤时间梳理、总结下这块儿的知识体系。 2.熟悉、梳理、总结下YOLO目标检测相关知识体系&#xff0c;之前实战配置时总是临时性检索些注释含义&#xff0c;但…

JVM组成之类加载器

类加载器&#xff08;ClassLoader&#xff09;&#xff1a;是Java虚拟机提供给应用程序去实现获取类和接口字节码数据的技术。 类加载器多数是有Java编写的&#xff0c;也有部分是c编写的&#xff0c;负责接收来自外部的二进制数据&#xff0c;然后执行JNI&#xff08;也就是本…

【Java】山外有山,类外还有类

【Java】山外有山&#xff0c;类外还有类 内部类是Java语言中的一种特性&#xff0c;它允许在另一个类中定义一个类。 内部类可以是静态的&#xff08;不依赖于外部类的实例&#xff09;&#xff0c;也可以是非静态的&#xff08;依赖于外部类的实例&#xff09;。 在本篇博…

在R的 RGui中,使用devtools 安装trajeR

创建于&#xff1a;2024.5.5 文章目录 1. 报错信息2. 尝试使用指定的清华镜像&#xff0c;没有解决3. 找到原因&#xff1a;官网把包删除了4. 尝试从网上下载&#xff0c;然后安装。没有成功5. 使用devtools安装5.1 尝试直接安装&#xff1a;install.packages("devtools&q…

【智能算法应用】混合粒子群算法求解CVRP问题

目录 1.算法原理2.数学模型3.结果展示4.参考文献5.代码获取 1.算法原理 【智能算法】粒子群算法&#xff08;PSO&#xff09;原理及实现 经典PSO算法用于连续空间优化问题&#xff0c;VRP问题为离散组合优化问题&#xff0c;涉及如何有效地分配一组车辆去访问多个客户点&…

OSEK的设计哲学与架构

1 前言 OSEK是为单核分布式嵌入式控制单元量身定制的实时系统&#xff0c;对事件驱动&#xff08;event driven&#xff09;的硬实时控制系统具有良好的适配性。OSEK没有强求不同软件模块间的完全兼容性&#xff0c;而是将重心放到了软件的可移植性上来。简单来说&#xff0c;与…

[报错解决]Communications link failure

报错 主机IDEA项目连接虚拟机的数据库报错。 主要报错信息有&#xff1a; com.mysql.cj.jdbc.exceptions.CommunicationsException: Communications link failure The last packet sent successfully to the server was 0 milliseconds ago. The driver has not received a…

智慧旅游引领未来风尚,科技助力旅行更精彩:科技的力量推动旅游业创新发展,为旅行者带来更加便捷、高效和智能的旅行服务

目录 一、引言 二、智慧旅游的概念与特点 &#xff08;一&#xff09;智慧旅游的概念 &#xff08;二&#xff09;智慧旅游的特点 三、科技推动旅游业创新发展 &#xff08;一&#xff09;大数据技术的应用 &#xff08;二&#xff09;人工智能技术的应用 &#xff08;…

Linux Ubuntu 开机自启动浏览器

终端输入命令&#xff1a;gnome-session-properties 打开启动设置 如果提示&#xff1a;Command ‘gnome-session-properties’ not found, but can be installed with: apt install gnome-startup-applications 则执行&#xff1a;apt install gnome-startup-applications安装…

一、写给Android开发者之harmony入门

一、创建新项目 对比 android-studio&#xff1a;ability类似安卓activity ability分为两种类型(Stage模型) UIAbility和Extensionability&#xff08;提供系统服务和后台任务&#xff09; 启动模式 1、 singleton启动模式&#xff1a;单例 2、 multiton启动模式&#xff1…

数据结构十:哈希表

本次将从概念上理解什么是哈希表&#xff0c;理论知识较多&#xff0c;满满干货&#xff0c;这也是面试笔试的一个重点区域。 目录 一、什么是哈希表 1.0 为什么会有哈希表&#xff1f; 1.1 哈希表的基本概念 1.2 基本思想 1.3 举例理解 1.4 存在的问题 1.5 总结 二、…