opencv如何使用GPU的三种方法

我在工作实验涉及到图像和视频处理时,通常使用opencv提供的库来做处理,虽然OpenCV是一个广泛使用的库,它提供了丰富的功能和工具。然而,有时候在处理大量图片或视频时,我们可能会面临速度受限的问题。

opencv执行图像处理,就跟我们电脑一样,打游戏CPU是来加载处理数据的,显卡(GPU)是来渲染图像。下面由我助理来介绍如何本文的内容吧

在这里插入图片描述

numpy运算加速

一开始我其实考虑使用python其他库来加速图像处理的计算,因为在计算机视角下的图像是可以等价为numpy类型的数值,在Python中,有几个库可以加速NumPy运算。其中最常用的库是NumPy本身,它已经高度优化,可以提供快速的数值计算。但是,如果你需要进一步加速NumPy运算,可以考虑下面这个库:

Numba:Numba是一个即时(just-in-time)编译器,可以将Python函数编译成高效的机器码。它支持在NumPy数组上进行加速运算。你可以使用装饰器@numba.jit将函数编译为机器码,以提高其性能。

以下是一个使用Numba加速NumPy运算的示例代码:

import numba
import numpy as np



def cpu_function(a):
    # 在这里编写需要加速的NumPy运算代码
    trace = 0
    # 假设输入变量是numpy数组
    for i in range(a.shape[0]):   # Numba 擅长处理循环
        trace += np.tanh(a[i, i])  # numba喜欢numpy函数
    return a + trace

@numba.jit(nopython=True)
def gpu_function(a):
    # 在这里编写需要加速的NumPy运算代码
    trace = 0
    # 假设输入变量是numpy数组
    for i in range(a.shape[0]):   # Numba 擅长处理循环
        trace += np.tanh(a[i, i])  # numba喜欢numpy函数
    return a + trace
    


# 调用加速后的函数
x = np.arange(10000).reshape(100, 100)


print('cpu执行时间:')
% timeit cpu_function(x)
print('gpu执行时间:')
% timeit gpu_function(x)
cpu执行时间:
199 µs ± 1.27 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
gpu执行时间:
4.18 µs ± 32.9 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)

1 微秒(us)=0.000001 秒

但这种方法对于读取视频速度还是没有影响的,为了解决这个问题,我们可以利用GPU加速来提高图像和视频的读取速度。使用OpenCV的cuda模块,我们可以将解码和处理操作从CPU转移到GPU上,以利用GPU的并行计算能力。这种方式可以显著提高处理速度,特别是在大规模图像和视频处理的情况下。下面我将介绍三种opencv使用GPU的方法

opencv内置函数运算

在OpenCV的Python绑定中,可以使用一些内置函数来利用GPU进行加速。以下是使用GPU加速的方法和原理:

  1. 安装正确的依赖项:与使用DNN模块相同,首先需要确保在系统上安装了与GPU加速相关的依赖项,包括CUDA和cuDNN。
  2. 创建GPU加速的函数:在OpenCV中,某些函数可以利用GPU进行加速,例如图像处理函数(如滤波、图像变换等)和矩阵操作函数(如矩阵乘法、转置等)。这些函数在使用时需要将数据传递到GPU上进行处理。
  3. 分配GPU内存:在使用GPU加速函数之前,需要为输入和输出数据在GPU上分配内存。可以使用cv2.cuda.alloc()函数来为输入和输出数据创建GPU内存。
  4. 将数据传输到GPU:将输入数据从主机内存(CPU)传输到GPU内存。可以使用cv2.cuda_GpuMat.upload()函数将数据从CPU内存上传到GPU内存。
  5. 执行GPU加速函数:调用相应的GPU加速函数,传递GPU上的输入数据作为参数,并在GPU上进行计算。这些函数将直接在GPU上执行,以获得加速的效果。
  6. 从GPU中下载数据:如果需要将结果数据从GPU内存下载到主机内存,可以使用cv2.cuda_GpuMat.download()函数。这样,就可以在主机上进行后续的处理或输出。

下面是一个结合前面的计时器类的示例代码,展示了如何使用OpenCV的cv2.calcOpticalFlowFarneback函数进行图像的光流计算预处理,并通过CPU和GPU实现对比执行速度:

import cv2
import time

# 图像预处理函数(CPU实现)
def preprocess_image_cpu(img):
    # 在这里进行图像预处理
    # 转换为灰度图像  
	gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)  
	  
	# 直方图均衡化  
	equalized = cv2.equalizeHist(gray)  
	  
	# Sobel锐化  
	sobelx = cv2.Sobel(equalized, cv2.CV_64F, 1, 1, ksize=3)  
	sobely = cv2.Sobel(equalized, cv2.CV_64F, 0, 1, ksize=3)  
	sober = np.sqrt(sobelx ** 2 + sobely ** 2) 

	# 显示原图、直方图均衡化后的图像、Sobel锐化后的图像  
	cv2.imshow('Original', img)  
	cv2.imshow('Equalized', equalized)  
	cv2.imshow('Sober', sober)  
	  
	cv2.waitKey(0)  
	cv2.destroyAllWindows() 


# 图像预处理函数(GPU实现)
def preprocess_image_gpu(img):
    if not cv2.cuda.getCudaEnabledDeviceCount():
        print("CUDA is not available. Please make sure CUDA drivers are installed.")
        return

    gpu_image = cv2.cuda_GpuMat()
    gpu_image.upload(img)

    # 在这里进行图像预处理(GPU实现)
    # 转换为灰度图像  
	gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)  
	  
	# 直方图均衡化  
	equalized = cv2.equalizeHist(gray)  
	  
	# Sobel锐化  
	sobelx = cv2.Sobel(equalized, cv2.CV_64F, 1, 1, ksize=3)  
	sobely = cv2.Sobel(equalized, cv2.CV_64F, 0, 1, ksize=3)  
	sober = np.sqrt(sobelx ** 2 + sobely ** 2) 

	# 显示原图、直方图均衡化后的图像、Sobel锐化后的图像  
	cv2.imshow('Original', img)  
	cv2.imshow('Equalized', equalized)  
	cv2.imshow('Sober', sober)  
	  
	cv2.waitKey(0)  
	cv2.destroyAllWindows() 

# 读取图像
image_path = "path/to/image.jpg"
image = cv2.imread(image_path)

print('cpu执行时间:')
% timeit preprocess_image_cpu(image)
print('gpu执行时间:')
% timeit preprocess_image_gpu(image)

openCV DNN 模块

在OpenCV的Python绑定中,DNN模块可以利用GPU加速来进行深度神经网络的推理。以下是使用GPU加速的方法和原理:

  1. 安装正确的依赖项:首先,确保你的系统上安装了与GPU加速相关的依赖项。这通常包括安装CUDA(Compute Unified Device Architecture)和cuDNN(CUDA Deep Neural Network)。
  2. 配置OpenCV编译选项:在编译OpenCV时,需要确保启用了GPU加速选项。可以使用CMake进行编译配置,通过启用相关的CUDA选项来启用GPU加速支持。
  3. 加载模型和权重:使用OpenCV的DNN模块加载深度神经网络模型和相应的权重文件。例如,可以使用cv2.dnn.readNet()函数加载模型。
  4. 设置推理设备:使用cv2.dnn_DNN_BACKEND_CUDA和cv2.dnn.DNN_TARGET_CUDA参数设置推理设备为CUDA。
  5. 配置网络:为了使用GPU加速,需要将网络配置为使用CUDA。可以使用net.setPreferableBackend(cv2.dnn.DNN_BACKEND_CUDA)和net.setPreferableTarget(cv2.dnn.DNN_TARGET_CUDA)方法设置网络的后端和目标。
  6. 进行推理:现在,可以使用GPU加速进行深度神经网络的推理。使用net.forward()方法来运行前向传播,并获取网络的输出。

下面是一个结合计时器的示例代码,展示了如何使用OpenCV的dnn模块进行图像处理,并通过CPU和GPU实现对比执行速度:

import cv2
import time

# 图像处理函数(CPU实现)
def process_image_cpu(image):
    # 在这里进行图像处理(CPU实现)
    # ...

    return processed_image

# 图像处理函数(GPU实现)
def process_image_gpu(image):
    if not cv2.cuda.getCudaEnabledDeviceCount():
        print("CUDA is not available. Please make sure CUDA drivers are installed.")
        return

    net = cv2.dnn.readNetFromCaffe("path/to/caffe/prototxt", "path/to/caffe/model")
    blob = cv2.dnn.blobFromImage(image, scalefactor=1.0, size=(300, 300), mean=(104.0, 177.0, 123.0), swapRB=True)

    gpu_blob = cv2.cuda_GpuMat()
    gpu_blob.upload(blob)

    net.setPreferableBackend(cv2.dnn.DNN_BACKEND_CUDA)
    net.setPreferableTarget(cv2.dnn.DNN_TARGET_CUDA)

    gpu_net = cv2.dnn_DetectionModel(net)
    gpu_net.setInput(gpu_blob)

    start_time = time.time()
    gpu_detection = gpu_net.forward()
    end_time = time.time()
    gpu_execution_time = end_time - start_time

    # 在这里进行图像处理(GPU实现)
    # ...

    gpu_processed_image = gpu_blob.download()
    return gpu_processed_image, gpu_execution_time

# 读取图像
image_path = "path/to/image.jpg"
image = cv2.imread(image_path)


print('cpu执行时间:')
% timeit preprocess_image_cpu(image)
print('gpu执行时间:')
% timeit preprocess_image_gpu(image)

在上述代码中,我们定义了两个图像处理函数:process_image_cpu和process_image_gpu,分别表示CPU和GPU的实现方式。

读取视频

在Python中使用OpenCV读取视频时,可以使用GPU加速来提高读取速度。为此,你可以使用OpenCV的cuda模块以及支持CUDA的显卡驱动和CUDA工具包。

下面是一个示例代码,展示如何使用GPU加速在OpenCV中读取视频的每一帧:

import cv2

# 检查是否支持CUDA
if not cv2.cuda.getCudaEnabledDeviceCount():
    print("CUDA is not available. Please make sure CUDA drivers are installed.")
    exit()

# 创建GPU设备对象
gpu_id = 0  # 选择GPU设备的ID
device = cv2.cuda.Device(gpu_id)
ctx = device.createContext()

# 打开视频文件
video_path = "path/to/video/file.mp4"
cap = cv2.VideoCapture(video_path)

# 检查视频文件是否成功打开
if not cap.isOpened():
    print("Failed to open the video file.")
    exit()

# 设置GPU加速
cap.set(cv2.CAP_PROP_CUDA_MPS, 1)

# 循环读取视频的每一帧
while True:
    # 使用GPU加速读取一帧
    ret, frame = cap.read(cv2.CAP_CUDA)

    # 检查是否成功读取帧
    if not ret:
        break

    # 在这里进行你希望执行的操作
    # ...

# 释放资源
cap.release()
cv2.destroyAllWindows()

在上述代码中,首先检查是否支持CUDA,然后创建一个指定GPU设备的上下文(context)。接着打开视频文件,设置GPU加速,并循环读取视频的每一帧。读取过程中,使用cv2.CAP_CUDA作为参数来启用GPU加速。你可以在读取帧后的代码块中执行你希望的操作,例如对帧进行处理或展示。

请确保你的系统中已经正确安装了支持CUDA的显卡驱动和CUDA工具包,以及适用于GPU加速的OpenCV版本。同时,根据实际情况修改代码中的视频文件路径和GPU设备的ID。

下面是一个示例案例,演示了如何使用CPU和GPU分别读取视频,并使用time库计算二者读取视频的时间,并进行对比:

import cv2
import time

# 用CPU读取视频
def read_video_cpu(video_path):
    cap = cv2.VideoCapture(video_path)

    while True:
        ret, frame = cap.read()

        if not ret:
            break

        # 在这里进行你希望执行的操作
        # ...
    cap.release()


# 用GPU读取视频
def read_video_gpu(video_path):
    if not cv2.cuda.getCudaEnabledDeviceCount():
        print("CUDA is not available. Please make sure CUDA drivers are installed.")
        return

    gpu_id = 0
    device = cv2.cuda.Device(gpu_id)
    ctx = device.createContext()

    cap = cv2.VideoCapture(video_path)

    cap.set(cv2.CAP_PROP_CUDA_MPS, 1)

    while True:
        ret, frame = cap.read(cv2.CAP_CUDA)

        if not ret:
            break

        # 在这里进行你希望执行的操作
        # ...

    cap.release()


# 视频文件路径
video_path = "path/to/video/file.mp4"

print('cpu执行时间:')
% timeit read_video_cpu(video_path)
print('gpu执行时间:')
% timeit read_video_gpu(video_path)

使用GPU读取视频的原理是将视频解码和帧处理操作从CPU转移到GPU上进行加速。在这种情况下,GPU负责解码视频帧并执行任何与帧相关的处理操作,而CPU主要负责控制和协调工作流程。

具体实现方式是,通过OpenCV的cv2.VideoCapture函数设置参数cv2.CAP_CUDA来启用GPU加速。这将使用GPU进行视频解码,并将解码后的帧传输到GPU内存中。然后,在每一帧上进行处理时,GPU负责执行相应的操作,例如图像处理、计算等。CPU则不直接参与这些操作,而是仅在必要时与GPU进行通信和同步,以确保正确的工作流程和数据传输。

需要注意的是,虽然视频的解码和帧处理操作是由GPU完成的,但仍然需要CPU的参与来完成初始化、设置参数、控制流程以及与GPU的通信和同步。因此,在整个过程中,CPU和GPU是协同工作的。在Linux系统中使用top命令查看CPU利用率时,如果视频读取和处理操作主要由GPU执行,那么CPU利用率可能会较低

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/32062.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【C/C++】之内存管理(超详细练气篇)

个人主页:平行线也会相交💪 欢迎 点赞👍 收藏✨ 留言✉ 加关注💓本文由 平行线也会相交 原创 收录于专栏【C之路】💌 本专栏旨在记录C的学习路线,望对大家有所帮助🙇‍ 希望我们一起努力、成长&…

基本 SQL 命令 、重要的 SQL命令、SQL 约束 及 SQL语句 的 执行顺序

学习目标: 学习目标如下: SQL语句执行顺序 学习内容: 基本 SQL 命令: FROMONJOINWHEREGROUP BYAGG_FUNCWITHHAVINGSELECT 从数据库中提取数据UNIONDISTINCTORDER BY 排序LIMIT 重要的sql命令: 1、SELECT - 从数据…

Finalshell安全吗?Xshell怎么样?

文章目录 一、我的常用ssh连接工具二、Xshell2.1 下载:认准官网2.2 Xshell 配置2.3 Xftp和WinSCP 一、我的常用ssh连接工具 之前讲过: 【服务器】远程连接选SSH(PUTTY、Finalshell、WinSCP) 还是 远程桌面(RDP、VNC、…

解决 CentOS/Alma 安装 libpcap-devel 报错:No match for argument: libpcap-devel

环境:Alma 8.5、Centos 7.x 解决方案 Linux 安装软件的时候,需要 libpcap-devel 这个组件,执行命令:yum install libpcap-devel ,然后报错如下: Last metadata expiration check: 0:05:24 ago on Mon 12…

【算法】数学相关知识总结

文章目录 gcd 和 lcm取模运算 %求一个点和一片矩形区域之间的最短距离 本文用于记录一些关于算法题中偶尔被使用到的数学相关知识。 gcd 和 lcm gcd 和 lcm 分别是 最大公约数(Greatest common divisor) 和 最小公因数(Least Common Multip…

机器学习——决策树算法

一、实验目的 掌握如何实现决策树算法,用并决策树算法完成预测。 二、实验内容 本次实验任务我们使用贷款申请样本数据表,该数据表中每列数据分别代表ID、年龄、高薪、有房、信贷情况、类别,我们根据如下数据生成决策树,使用代…

二值化的mask生成yolov5-7.0的实例分割训练标签

背景:要用yolov5-7.0训练分割,这里使用自己的数据,mask是二值化的数据,要先转换成COCO格式,这里用imantics实现。 详见:https://zhuanlan.zhihu.com/p/427096258 截取部分代码如下图,读取image图…

ninja的简单使用

文章目录 Ninja安装windows环境Linux环境 入门使用与CMake一起使用 Ninja安装 windows环境 问题的解决通常有多种方法。按照结果的好坏程度,可以将解决方法简单的划分为,上中下三个层次,见:为什么谋士总喜欢提上中下三策? 在w…

C++静态和动态链接库导出和使用

1、简介 代码开发过程中会遇到很多已有的函数库,这些函数库是现有的,成熟的,可以复用的代码。现实中每个程序都要依赖很多基础的底层库,不可能每个人的代码都从零开始,因此库的存在意义非同寻常。 本质上来说库是一种…

在 K8S 中部署一个应用 上

本身在 K8S 中部署一个应用是需要写 yaml 文件的,我们这次简单部署,通过拉取网络上的镜像来部署应用,会用图解的方式来分享一下,过程中都发生了什么 简单部署一个程序 我们可以通过 kubectl run 的方式来简单部署一个应用&#…

测试技术体系

目录: 软件测试分类分层测试体系 1.软件测试分类 软件测试的分类_安全性测试属于功能测试吗_阿瞒有我良计15的博客-CSDN博客 1.单元测试(Unit Testing):单元测试是指对软件的最小可测试单元进行测试,例如一个函数、一…

ES+Redis+MySQL,这个高可用架构设计

一、背景 会员系统是一种基础系统,跟公司所有业务线的下单主流程密切相关。如果会员系统出故障,会导致用户无法下单,影响范围是全公司所有业务线。所以,会员系统必须保证高性能、高可用,提供稳定、高效的基础服务。 …

macOS Ventura 13.4.1 (22F82) Boot ISO 原版可引导镜像下载

macOS Ventura 13.4.1 (22F82|22F2083) Boot ISO 原版可引导镜像下载 本站下载的 macOS 软件包,既可以拖拽到 Applications(应用程序)下直接安装,也可以制作启动 U 盘安装,或者在虚拟机中启动安装。另外也支持在 Wind…

TSception:从EEG中捕获时间动态和空间不对称性用于情绪识别

TSception:从EEG中捕获时间动态和空间不对称性用于情绪识别(论文复现) 摘要模型结构代码实现写在最后 **这是一篇代码复现,原文通过Pytorch实现,本文中使用Keras对该结构进行复现。**该论文发表在IEEE Transactions on…

Spark10-11

10. 广播变量 10.1 广播变量的使用场景 在很多计算场景,经常会遇到两个RDD进行JOIN,如果一个RDD对应的数据比较大,一个RDD对应的数据比较小,如果使用JOIN,那么会shuffle,导致效率变低。广播变量就是将相对…

Spring Boot 如何使用 @ExceptionHandler 注解处理异常消息

Spring Boot 如何使用 ExceptionHandler 注解处理异常消息 在 Spring Boot 应用程序中,异常处理是非常重要的一部分。当应用程序出现异常时,我们需要能够捕获和处理这些异常,并向用户提供有用的错误消息。在 Spring Boot 中,可以…

二叉平衡树之红黑树

目录 1.概念 2.性质 3.节点的定义 4.插入 1.按照二叉搜索树规则插入结点 2.调整颜色 1.uncle存在且为红色 2.uncle不存在或者为黑 cur为 3.根节点改为黑色 5.验证 6.比较 7.应用 1.概念 红黑树,是一种二叉搜索树,但在每个结点上增加一个存…

2023年5月青少年机器人技术等级考试理论综合试卷(五级)

青少年机器人技术等级考试理论综合试卷(五级) 分数: 100 题数: 30 一、 单选题(共 20 题, 每题 4 分, 共 80 分) 1.ESP32 for Arduino, 下列程序的运行结果是? ( &#x…

浅谈无线测温系统在高压开关柜中的应用

关注acrelzxz,了解更多详情 摘要:高压开关柜是配电系统中重要的组成部分,其主要作用是控制电荷、分配电能和开断电流等,对维持系统的稳定性有一定的保障作用。将无线测温技术应用于高压开关柜,可以实现对其进行实时的…

校园外卖行业内卷之下,高校外卖创业者如何成为卷王?

伴随着外卖行业的不断发展,校园市场前景广阔。校园外卖市场因各大平台的竞争而变得越来越复杂。各种技术支持和经验参考让大学生创业校园外卖越来越困难,市场竞争也越来越激烈。 校园外卖市场究竟有多内卷? 外卖龙头企业。 校园市场广阔的发…