摘要:本文深入探讨了如何应用深度学习技术开发一个先进的常见车型识别系统。该系统核心采用最新的YOLOv8算法,并与早期的YOLOv7、YOLOv6、YOLOv5等版本进行性能比较,主要评估指标包括mAP和F1 Score等。详细解析了YOLOv8的工作机制,提供了相应的Python代码和训练数据集,以便于理解和应用。系统不仅支持在静态图像中识别车型,还能处理视频文件、实时视频流和批量文件,展现出卓越的灵活性和准确性。
此外,研究还整合了基于PySide6的用户友好界面和基于SQLite数据库的用户登录注册界面进行管理功能,使得操作简便,同时允许用户轻松切换不同YOLO模型并自定义界面。这一系统旨在为车型识别研究和深度学习初学者提供实用指导,文末提供了代码库和数据集的下载链接,鼓励读者进一步探索。本文结构如下:
文章目录
- 前言
- 1.数据集介绍
- 2. 系统界面效果
- 3. YOLOv8算法原理
- 4. 代码简介
- 4.1 模型预测
- 4.2 模型训练
- 4.3 YOLOv5、YOLOv6、YOLOv7和YOLOv8对比
- 4.4 代码实现
- 5. 常见车型识别系统实现
- 5.1 系统设计思路
- 5.2 登录与账户管理
- 下载链接
- 6. 总结与展望
- 结束语
➷点击跳转至文末所有涉及的完整代码文件下载页☇
基于YOLOv8/v7/v6/v5的常见车型识别系统演示与介绍(深度学习模型+PySide6界面+训练数据集)
前言
在当今社会,随着城市化进程的加速和汽车保有量的急剧增加,交通管理、智能监控、自动驾驶等领域对于高效、准确的车型识别技术提出了迫切需求。常见车型识别系统作为计算机视觉和人工智能领域的一个重要研究方向,旨在通过图像或视频中的车辆图像自动识别其车型。这种技术的应用不仅可以大幅提高交通系统的管理效率和安全水平,还能为智能交通系统的发展提供强有力的技术支持。
在过去几年中,基于深度学习的车型识别技术取得了显著的进展。特别是YOLO系列算法在提高识别速度和准确性方面发挥了重要作用。自从YOLOv5被公开以来,其后续版本YOLOv6、YOLOv7和YOLOv8陆续推出,每个版本都在性能和效率上有所改进。这些算法的迭代不仅反映了深度学习领域的快速发展,也推动了车型识别技术的应用前景。
首先,YOLOv5作为系列中的重要转折点,以其出色的平衡性能获得了广泛关注。通过改进网络结构和训练策略,YOLOv5实现了在保持高准确率的同时,大幅提升了处理速度,这对于需要实时处理的车型识别系统尤为重要1。随后,YOLOv6引入了更为高效的特征提取机制和更加精细的层次结构,进一步提升了模型的泛化能力和对小目标的识别性能。YOLOv6的这些改进,使其在复杂环境下的车型识别任务中表现出色2。YOLOv7在此基础上,通过引入新的注意力机制和更加复杂的网络连接,优化了模型的特征学习能力。这些改进使得YOLOv7在处理高度遮挡和光照变化的场景时,能够更加准确地识别车型3。最新的YOLOv8则是在前几个版本的基础上,综合利用了最新的深度学习技术,如自适应学习率调整、自动化模型剪枝等,以进一步提高模型的性能和效率。YOLOv8的推出,标志着车型识别技术向更高精度、更高效率迈进了一大步4。除了YOLO系列之外,还有其他深度学习算法在车型识别领域也取得了显著成果。例如,基于Transformer的模型因其强大的全局信息建模能力,开始被应用于车型识别任务中,展现出了与卷积神经网络相媲美甚至超越的性能5。
本博客围绕构建一个基于最先进YOLOv8算法的常见车型识别系统,不仅深入剖析了算法原理,还提供了实际的系统实现和丰富的开发资源。通过这篇博客的分享,我们希望为车型识别领域的研究者和实践者提供一个全面而深入的参考框架,促进这一技术的进一步发展和应用。具体而言,本文的主要贡献可以概括如下:
- 引入并深入探讨了YOLOv8算法在常见车型识别中的应用:本文不仅采用了最新的YOLOv8算法,而且详尽比较了该算法与其前版本YOLOv7、YOLOv6、YOLOv5的性能差异。通过这种对比,我们展现了YOLOv8在处理速度和识别准确度上的显著优势,为车型识别领域提供了新的研究思路和技术路径。
- 开发了用户友好的常见车型识别系统:利用Python的PySide6库,我们设计和实现了一个具有高度交互性和用户友好界面的常见车型识别系统。该系统不仅易于使用,还能有效地展示YOLOv8算法在实际应用中的强大能力,推动了算法的普及和应用。
- 设计了系统的登录管理功能:通过引入登录管理机制,我们不仅增强了系统的安全性,也为将来集成更多个性化功能奠定了基础,进一步提升了系统的实用性和灵活性。
- 对YOLOv8算法性能进行了全面评估:本文深入研究了YOLOv8算法在常见车型识别任务中的表现,包括精准度、召回率等关键性能指标的评估,以及算法在不同环境条件下的适应性分析。这些研究成果不仅丰富了我们对YOLOv8算法性能的理解,也为进一步改进和优化算法提供了重要依据。
- 提供了完整的数据集和代码资源包:为了促进读者的学习和实践,本文分享了一套完整的数据集和代码资源包。这些资源涵盖了从算法训练到系统实现的全过程,使读者能够直接复现实验结果,并在此基础上进行自己的研究和开发。
1.数据集介绍
在构建一个高效且准确的常见车型识别系统时,使用了一个精心准备的数据集,总共包括2026张图像,这些图像被细致地分为1488张训练图像、507张验证图像和31张测试图像。这样的分布确保模型在学习过程中能够接触到广泛的数据,同时也可以通过验证和测试集合准确评估其泛化能力和实际表现。
在预处理阶段,我们对数据集中的图像进行了一系列标准化操作。首先,所有的图像都经过自动方向校正,移除了EXIF方向信息,确保了在进行图像处理时,所有的图像都保持一致的方向。这一步是至关重要的,因为不同的拍摄角度或设备可能导致图像的方向不一,影响算法的训练和识别准确度。其次,我们将所有图像统一调整为416x416像素的大小,采用拉伸的方式以适配YOLOv8算法的输入要求。虽然这种缩放可能会引入一定的形变,但我们的系统已经优化,可以抵消这种变化的影响。
数据集的多样性是提高车型识别系统准确性的关键。我们的数据集不仅包括了各种尺寸和类型的车辆,如轿车、货车、卡车等,还特别关注了不同类别的平衡性。如数据集分布图所示,我们包含了从小型轿车(tiny car)到特种车辆(special car)等多个类别,其中中型车(mid car)和大型货车(big truck)的实例数量最多,这反映了它们在实际道路交通中的普遍性。特种车辆虽然样本量较少,但其包含在数据集中对模型的适应性和灵活性至关重要。
我们还分析了数据集中车辆的位置和尺寸分布。大部分车辆目标位于图像的中心区域,这与实际驾驶场景相吻合,在这些场景中,车辆通常位于驾驶员的视野中央。此外,车辆目标在图像中的尺寸分布较为集中,这表明在不同图像中,车辆尺寸相对一致,有利于算法学习如何预测车辆的大小。博主使用的类别代码如下:
Chinese_name = {"2-wheeler": "两轮车", "auto": "自动车", "bus": "公交车", "car": "汽车",
"crosswalk": "人行横道", "person": "行人", "traffic signal": "交通信号", "truck": "卡车", "van": "货车"}
总的来说,这个综合性的数据集不仅通过精确的预处理和标准化步骤来优化训练效果,而且通过多样化的样本类型和均衡的类别分布来增强模型的泛化能力。此外,我们详尽的数据分析确保了模型训练过程中的各项指标得到充分考虑,为实现高精度的常见车型识别系统奠定了坚实的基础。
2. 系统界面效果
系统以PySide6作为GUI库,提供了一套直观且友好的用户界面。下面,我将详细介绍各个主要界面的功能和设计。
(1)系统提供了基于SQLite的注册登录管理功能。用户在首次使用时需要通过注册界面进行注册,输入用户名和密码后,系统会将这些信息存储在SQLite数据库中。注册成功后,用户可以通过登录界面输入用户名和密码进行登录。这个设计可以确保系统的安全性,也为后续添加更多个性化功能提供了可能性。
(2)在主界面上,系统提供了支持图片、视频、实时摄像头和批量文件输入的功能。用户可以通过点击相应的按钮,选择要进行常见车型识别的图片或视频,或者启动摄像头进行实时检测。在进行常见车型识别时,系统会实时显示检测结果,并将检测记录存储在数据库中。
(3)此外,系统还提供了一键更换YOLOv8/v5模型的功能。用户可以通过点击界面上的"更换模型"按钮,选择不同的YOLOv8模型进行检测。与此同时,系统附带的数据集也可以用于重新训练模型,以满足用户在不同场景下的检测需求。
(4)为了提供更个性化的使用体验,这里系统支持界面修改,用户可以自定义图标、文字等界面元素。例如,用户可以根据自己的喜好,选择不同风格的图标,也可以修改界面的文字描述。
3. YOLOv8算法原理
YOLOv8算法是目前先进的目标检测框架之一,其设计理念在于通过高效的网络结构实现快速而精准的目标检测。YOLOv8的网络架构采用了Neck和Head的分离设计,这意味着特征提取(Backbone)和目标检测(Head)两个过程被明确区分,从而优化了每个部分的性能。
在特征提取阶段,YOLOv8继承并发展了YOLOv5和YOLOv7的设计思想,采用CSPNet结构作为其Backbone,CSPNet的优势在于减少计算重复性,同时保持了丰富的渐进式特征。这种结构通过跨阶段部分网络(CSP)的方式,降低了计算量并改进了特征传播效率。这一点在处理大量图像数据时特别重要,因为它能够有效地减少计算资源消耗,同时保持或提升检测性能。
YOLOv8的Neck部分采用了SPP(Spatial Pyramid Pooling)和FPN(Feature Pyramid Networks)的结合,这在多尺度目标检测中尤为关键。SPP能够在不同尺度下提取有效的上下文信息,而FPN通过多尺度特征融合增强了模型对不同大小目标的检测能力。SPP通过最大池化操作捕获不同尺度的特征,而FPN则通过自顶向下和自底向上的路径加强了特征之间的连接。
在Head部分,YOLOv8采取了一种被称为Decoupled-Head的方法,这种方法将分类和定位两个任务分开处理,有助于提升模型在这两个方面的专注度和准确性。相较于传统的设计,Decoupled-Head的方法通过分离这两个任务来减少它们之间的相互干扰,从而提高了整体的检测性能。
YOLOv8还引入了Anchor-Free的机制,这是目标检测领域中的一项创新。与传统依赖Anchor Box的方法不同,Anchor-Free机制允许模型直接预测目标的中心点和边界框,减少了对先验框的依赖,这使得模型更加灵活,也简化了训练过程。
此外,YOLOv8在损失函数上也进行了创新,采用了Distribution Focal Loss和CIoU Loss。Distribution Focal Loss对于不平衡数据分布具有更好的鲁棒性,它能够减少易分样本对损失函数的贡献,更专注于难以识别的样本。CIoU Loss则更加关注边界框的几何精度,不仅考虑了预测框和实际框的重叠面积,还考虑了它们的中心点距离和形状相似度,这有助于在边界框回归任务中获得更高的精度。
4. 代码简介
在本节中,我们将详细介绍如何使用YOLOv8进行常见车型识别的代码实现。代码主要分为两部分:模型预测和模型训练。
4.1 模型预测
在模型预测部分,首先导入了OpenCV库和YOLO模型。OpenCV库是一个开源的计算机视觉和机器学习软件库,包含了众多的视觉处理函数,使用它来读取和处理图像。YOLO模型则是要用到的目标检测模型。
import cv2
from ultralytics import YOLO
接着,加载自行训练好的YOLO模型。这个模型是在大量的图像上预训练得到的,可以直接用于目标检测任务。
model.load_model(abs_path("weights/best-yolov8n.pt", path_type="current"))
然后,使用OpenCV读取了一个图像文件,这个图像文件作为要进行目标检测的图像输入。
img_path = abs_path("test_media/test.png")
image = cv_imread(img_path)
在读取了图像文件之后,就可以使用加载的模型对图像进行预测了。下图为预测结果。
pred, superimposed_img = model.predict(pre_img)
4.2 模型训练
这里我们开始训练和测试自己的数据集,在cmd终端或pycharm中运行run_train_model.py进行训练,以下是训练过程中的结果截图。YOLOv8的损失函数是其性能的关键部分,它指导模型学习如何准确地检测和分类对象。
以下表格详细介绍了YOLOv8模型训练中使用的一些重要超参数及其设置:
超参数 | 设置 | 说明 |
---|---|---|
学习率(lr0 ) | 0.01 | 决定了模型权重调整的步长大小,在训练初期有助于快速收敛。 |
学习率衰减(lrf ) | 0.01 | 控制训练过程中学习率的降低速度,有助于模型在训练后期细致调整。 |
动量(momentum ) | 0.937 | 加速模型在正确方向上的学习,并减少震荡,加快收敛速度。 |
权重衰减(weight_decay ) | 0.0005 | 防止过拟合,通过在损失函数中添加正则项减少模型复杂度。 |
热身训练周期(warmup_epochs ) | 3.0 | 初始几个周期内以较低的学习率开始训练,逐渐增加到预定学习率。 |
批量大小(batch ) | 16 | 每次迭代训练中输入模型的样本数,影响GPU内存使用和模型性能。 |
输入图像大小(imgsz ) | 640 | 模型接受的输入图像的尺寸,影响模型的识别能力和计算负担。 |
在本节,我们将深入探讨如何使用YOLOv8算法训练一个高效的常见车型识别系统。我将分享实际的代码实现过程,并对关键步骤进行详细的分析。
首先,我们从导入必要的库开始。使用Python的os和yaml库来处理文件路径和配置文件,并引入YOLO模型,这是我们训练过程中的核心。
import os
import yaml
from ultralytics import YOLO # 导入YOLO模型
from QtFusion.path import abs_path
然后,我们设置了数据集的路径,这通过abs_path函数完成,它将相对路径转换为绝对路径,确保无论我们在哪里运行代码,路径都是正确的。这对于跨平台的项目至关重要,因为不同操作系统的文件路径表示方式可能不同。
data_path = abs_path('datasets/VehicleType/vehicle.yaml', path_type='current') # 数据集的yaml的绝对路径
unix_style_path = data_path.replace(os.sep, '/')
# 获取目录路径
directory_path = os.path.dirname(unix_style_path)
接下来,我们读取了配置文件中的内容,并根据需要对其进行了修改。这一步是为了确保配置文件中的path键正确地指向了我们的数据集路径。
with open(data_path, 'r') as file:
data = yaml.load(file, Loader=yaml.FullLoader)
# 修改path项
if 'path' in data:
data['path'] = directory_path
# 将修改后的数据写回YAML文件
with open(data_path, 'w') as file:
yaml.safe_dump(data, file, sort_keys=False)
然后,我们使用YOLO类来加载预训练的YOLO模型。这里我们加载了YOLOv5nu的权重,这一步骤是为了使用这些预训练的权重作为我们训练的起点,这可以大大加快训练速度并提高最终模型的性能。
workers = 1
batch = 8
data_name = "VehicleType"
model = YOLO(abs_path('./weights/yolov5nu.pt', path_type='current'), task='detect') # 加载预训练的YOLOv8模型
results = model.train( # 开始训练模型
data=data_path, # 指定训练数据的配置文件路径
device='cpu', # 指定使用CPU进行训练
workers=workers, # 指定使用2个工作进程加载数据
imgsz=640, # 指定输入图像的大小为640x640
epochs=100, # 指定训练100个epoch
batch=batch, # 指定每个批次的大小为8
name='train_v5_' + data_name # 指定训练任务的名称
)
在准备好数据和模型之后,我们开始了训练过程。train方法被用来指定了许多重要的训练参数,如数据集路径、计算设备、工作进程数、输入图像的尺寸、批次大小以及训练周期数。
model = YOLO(abs_path('./weights/yolov8n.pt'), task='detect') # 加载预训练的YOLOv8模型
results2 = model.train( # 开始训练模型
data=data_path, # 指定训练数据的配置文件路径
device='cpu', # 指定使用CPU进行训练
workers=workers, # 指定使用2个工作进程加载数据
imgsz=640, # 指定输入图像的大小为640x640
epochs=100, # 指定训练100个epoch
batch=batch, # 指定每个批次的大小为8
name='train_v8_' + data_name # 指定训练任务的名称
)
最后,我们重复了相同的训练步骤,但这次使用YOLOv8的权重。代码展示了如何加载另一个预训练模型YOLOv8并进行训练,这显示了如何灵活地在不同版本的YOLO模型之间进行切换。
从损失函数图像可以看出,训练过程中的框定位损失(box_loss)、分类损失(cls_loss)和目标检测损失(df1_loss)随着训练周期的增加而逐渐减少。这是一个良好的训练迹象,表明模型在学习如何更准确地识别和分类图像中的车辆。特别是,训练和验证阶段的框定位损失显著下降,说明模型在定位车辆的边界框方面表现出了优秀的学习能力。这一点对于车型识别系统尤其重要,因为边界框的准确性直接影响到后续的车型分类和计数。
分类损失的下降也同样重要,因为它反映了模型在区分不同类型车辆上的性能提升。随着分类损失的降低,模型越来越能够准确地识别出是轿车、卡车还是公交车等不同类别的车辆。这对于交通流量分析和城市规划等应用场景来说是一个极为关键的功能。关于目标检测损失(df1_loss),其在训练和验证过程中都有显著的下降。这表明模型在训练过程中对检测任务的学习越来越有效,能够准确地检测并定位图像中的车辆目标。
我们观察到平均精度均值(mAP50和mAP50-95)的提高,这是衡量目标检测模型性能的另一重要指标。mAP50关注的是IoU阈值为0.5时的性能,而mAP50-95则考虑了从0.5到0.95的不同IoU阈值。这两个指标的提升表明我们的模型不仅能够在较宽松的IoU阈值下表现良好,而且在更严格的条件下也能保持高水平的性能。
F1分数是精确率和召回率的调和平均,是评估模型性能的重要指标,尤其是在分类任务中。它的最佳值为1,最差值为0。根据曲线图显示,各个车型类别的F1分数随着置信度阈值的变化呈现出不同的变化趋势。在置信度阈值较低时,F1分数迅速上升至接近峰值,这意味着即使在较低的置信度下,模型也能保持较高的精确度和召回率。随着置信度阈值的进一步提高,F1分数趋于稳定,表明模型对车辆类型的识别具有很高的可靠性。
细致观察每个类别的曲线,我们可以看到,对于大多数车型类别,包括小型车(tiny-car)、中型车(mid-car)、大型车(big-car)、小型卡车(small-truck)、大型卡车(big-truck)、油罐车(oil-truck)以及特种车辆(special-car),其F1分数在置信度阈值提高到一个点后趋于稳定。这种趋势表明了我们的模型对各类车辆的识别能力是均衡的,没有某一类别明显落后。
整体F1分数在曲线中展示了0.98的峰值,在置信度为0.726时达到,这表明模型具有很高的准确性和可靠性。对于车型识别任务来说,这样的结果非常理想,因为它意味着模型不仅能够以高置信度准确识别车辆,同时避免了过多的误识别和遗漏。在置信度接近1时,所有类别的F1分数都略有下降。这是因为当置信度设定过高时,模型变得过于保守,只有非常确定的预测才会被认定为正类,导致召回率下降,进而影响F1分数。因此,选择一个适中的置信度阈值是确保模型性能最优化的关键。
总结来说,这次的评估结果为我们提供了宝贵的指导信息,指明了模型在车型识别任务上的整体性能以及如何通过调整置信度阈值来平衡精确度和召回率。随着我们系统的进一步优化和实际应用,这些评估结果将为我们提供确保模型准确性和可靠性的重要参考。
4.3 YOLOv5、YOLOv6、YOLOv7和YOLOv8对比
(1)实验设计:
本实验旨在评估和比较YOLOv5、YOLOv6、YOLOv7和YOLOv8几种模型在车型目标检测任务上的性能。为了实现这一目标,博主分别使用使用相同的数据集训练和测试了这四个模型,从而可以进行直接的性能比较。该数据集包含各种车型的图像。本文将比较分析四种模型,旨在揭示每种模型的优缺点,探讨它们在工业环境中实际应用的场景选择。
模型 | 图像大小 (像素) | mAPval 50-95 | CPU ONNX 速度 (毫秒) | A100 TensorRT 速度 (毫秒) | 参数数量 (百万) | FLOPs (十亿) |
---|---|---|---|---|---|---|
YOLOv5nu | 640 | 34.3 | 73.6 | 1.06 | 2.6 | 7.7 |
YOLOv8n | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 |
YOLOv6N | 640 | 37.5 | - | - | 4.7 | 11.4 |
YOLOv7-tiny | 640 | 37.4 | - | - | 6.01 | 13.1 |
(2)度量指标:
- F1-Score:F1-Score是精确率(Precision)和召回率(Recall)的调和平均值。精确率是指模型正确识别的正例与所有识别为正例的案例之比,而召回率是指模型正确识别的正例与所有实际正例之比。F1-Score对于不平衡的数据集或者需要同时考虑精确率和召回率的任务特别重要。
- mAP(Mean Average Precision):mAP是衡量模型在多个类别上平均检测准确度的指标。它计算了模型在所有类别上的平均精度,是目标检测领域中常用的性能度量。
名称 | YOLOv5nu | YOLOv6n | YOLOv7-tiny | YOLOv8n |
---|---|---|---|---|
mAP | 0.684 | 0.727 | 0.623 | 0.693 |
F1-Score | 0.67 | 0.72 | 0.65 | 0.66 |
(3)实验结果分析:
在此实验中,我们选择了YOLOv5nu、YOLOv6n、YOLOv7-tiny和YOLOv8n四个模型进行比较。每个模型都在同一数据集上进行训练和测试,以确保结果的可比性。我们使用了两个关键的度量指标:mAP和F1-Score。
从mAP指标来看,YOLOv6n以0.727的分数领先,显示出最好的平均检测精度。其次是YOLOv8n,mAP为0.693,表现也相当出色。YOLOv5nu的mAP为0.684,略低于YOLOv8n。而YOLOv7-tiny的mAP为0.623,是四者中最低的,这可能是因为“tiny”版本的模型为了减少计算资源的使用而简化了网络结构,导致性能有所下降。
从F1-Score指标来看,YOLOv6n同样以0.72的分数位于首位,表明其在精确度和召回率之间取得了最佳平衡。YOLOv5nu以0.67的F1得分位居第二,而YOLOv8n的F1得分为0.66,与YOLOv5nu相当。YOLOv7-tiny的F1得分为0.65,是所有版本中最低的
通过优化柱状图的显示范围,我们强调了不同算法间的性能差异,使得数据间的对比更为明显。整体而言,这样的视觉比较为我们提供了清晰的性能概览,有助于选择最适合特定应用需求的YOLO版本。
4.4 代码实现
在这篇博客中,我们将探讨如何结合YOLOv8检测器和PySide6框架,实现一个常见车型识别系统。这个系统能够处理视频流,并实时展示检测到的车辆,为用户提供直观的视觉反馈。现在,让我们深入理解实现这一功能的代码逻辑。
(1)导入必要的模块和配置
首先,我们导入了必要的库和模块。sys模块让我们能够与Python解释器进行交互,而time模块则用于记录模型预测所需的时间。图像处理库cv2即OpenCV,是实现视觉任务的核心。接下来,我们引入了QtFusion和PySide6库,这些库提供了创建图形用户界面(GUI)所需的工具和控件。
import sys # 导入sys模块,用于访问与Python解释器相关的变量和函数
import time # 导入time模块,用于获取当前时间
import cv2 # 导入OpenCV库,用于图像处理
from QtFusion.widgets import QMainWindow # 从QtFusion库导入FBaseWindow类,用于创建主窗口
from QtFusion.handlers import MediaHandler # 从QtFusion库导入MediaHandler类,用于处理媒体流
from QtFusion.utils import drawRectBox, get_cls_color # 从QtFusion库导入drawRectBox函数,用于在图像上绘制矩形框
from PySide6 import QtWidgets, QtCore # 导入PySide6库的QtWidgets和QtCore模块,用于创建GUI
from QtFusion.path import abs_path
from QtFusion.config import QF_Config
from YOLOv8Model import YOLOv8Detector # 从YOLOv8Model模块导入YOLOv8Detector类,用于物体检测
QF_Config.set_verbose(False)
(2)定义类别和模型
YOLOv8模型是实现常见车型识别的关键,我们通过实例化YOLOv8Detector并加载预训练权重来准备模型。这一步骤对于确保我们的检测系统能够准确地识别各种车辆至关重要。为了在图像上区分不同的车辆类型,我们通过get_cls_color函数为每一类车辆分配一个颜色。这样,在最终的输出图像中,用户可以通过颜色轻松区分不同的车辆类型。
cls_name = ["两轮车", "自动车", "公交车", "汽车", "人行横道", "行人", "交通信号", "卡车", "货车"] # 定义类名列表
model = YOLOv8Detector() # 创建YOLOv8Detector对象
model.load_model(abs_path("weights/vehicle-yolov8n.pt", path_type="current")) # 加载预训练的YOLOv8模型
colors = get_cls_color(model.names) # 获取类别颜色
(3)创建主窗口
接下来,代码的核心在于MainWindow类,它继承自QMainWindow。这个类负责创建并管理应用程序的主窗口。我们为它设置了大小,并定义了一个QLabel来显示摄像头捕获的图像。此外,我们还为MainWindow类定义了一个keyPressEvent方法,使得用户可以通过按下Q键来退出应用程序。
class MainWindow(QMainWindow): # 定义MainWindow类,继承自FBaseWindow类
def __init__(self): # 定义构造函数
super().__init__() # 调用父类的构造函数
self.resize(850, 500) # 设置窗口的大小
self.label = QtWidgets.QLabel(self) # 创建一个QLabel对象,用于显示图像
self.label.setGeometry(0, 0, 850, 500) # 设置QLabel对象的几何形状
def keyPressEvent(self, event): # 定义keyPressEvent函数,用于处理键盘事件
if event.key() == QtCore.Qt.Key.Key_Q: # 如果按下的键是Q键
self.close() # 关闭窗口
(4)主程序流程
在处理视频帧的frame_process函数中,我们首先调整了图像的大小以适应窗口,然后对图像进行预处理,并使用YOLOv8模型进行预测。预测完成后,我们计算并打印出了推理时间,这是衡量性能的一个重要指标。若模型成功检测到车辆,我们将使用drawRectBox函数来在图像上绘制边界框,并显示类别名称和置信度。
def frame_process(image): # 定义frame_process函数,用于处理每一帧图像
image = cv2.resize(image, (850, 500)) # 调整图像的大小
pre_img = model.preprocess(image) # 对图像进行预处理
t1 = time.time() # 获取当前时间
pred = model.predict(pre_img) # 使用模型进行预测
t2 = time.time() # 获取当前时间
use_time = t2 - t1 # 计算预测所用的时间
print("推理时间: %.2f" % use_time) # 打印预测所用的时间
det = pred[0] # 获取预测结果
# 如果有检测信息则进入
if det is not None and len(det):
det_info = model.postprocess(pred) # 对预测结果进行后处理
for info in det_info: # 遍历检测信息
name, bbox, conf, cls_id = info['class_name'], info['bbox'], info['score'], info[
'class_id'] # 获取类名、边界框、置信度和类别ID
label = '%s %.0f%%' % (name, conf * 100) # 创建标签,包含类名和置信度
# 画出检测到的目标物
image = drawRectBox(image, bbox, alpha=0.2, addText=label, color=colors[cls_id]) # 在图像上绘制矩形框,并添加标签和颜色
window.dispImage(window.label, image) # 在窗口的label控件上显示图像
随后,我们创建了QApplication和MainWindow对象,设置了视频流处理的帧率,并连接了新帧的处理函数。通过启动媒体处理并显示窗口,我们完成了从摄像头捕获视频、实时处理图像到图形界面呈现的整个流程。
app = QtWidgets.QApplication(sys.argv) # 创建QApplication对象
window = MainWindow() # 创建MainWindow对象
videoHandler = MediaHandler(fps=30) # 创建MediaHandler对象,设置帧率为30
videoHandler.frameReady.connect(frame_process) # 当有新的帧准备好时,调用frame_process函数
videoHandler.setDevice(device=0) # 设置设备为0,即默认的摄像头
videoHandler.startMedia() # 开始处理媒体流
# 显示窗口
window.show()
# 进入 Qt 应用程序的主循环
sys.exit(app.exec())
最后,我们通过展示主窗口并进入Qt应用程序的主循环,使得用户界面保持响应并能够实时更新。我们展示了如何使用先进的对象检测模型和现代GUI框架,搭建一个实时检测系统。详细的代码解释提供了从环境设置到有效显示检测结果的全面视角,旨在帮助读者更好地理解如何构建一个实用的常见车型识别系统。
5. 常见车型识别系统实现
在构建我们的交互式常见车型识别系统时,不仅需要快速准确地处理视频流中的图像数据,还需要提供一个清晰易用的界面,让用户能够无缝地与之交互。我们的设计思路遵循了将复杂的功能模块化和简化的原则,通过将界面设计、媒体处理和深度学习模型融为一体,我们实现了这一目标。
5.1 系统设计思路
在我们的系统设计中,我们的设计理念是构建一个高效、直观且用户友好的界面,使用户能够无缝地与系统交互。整个系统被设计为一个紧密集成的框架,其中每个组件都旨在提升整体性能和用户体验。
(1)架构设计
在系统的核心,我们设计了MainWindow类,它不仅作为用户界面的主体,更是各个功能模块交互的枢纽。MainWindow类的设计采用了分层架构模式,明确区分了处理层、界面层和控制层,使得每一层都有明确的职责,提高了整个系统的可维护性和可扩展性。
- 处理层(Processing Layer):处理层是系统的核心,包含了实现车型识别功能的所有算法和逻辑。这一层主要由YOLOv8Detector类组成,该类封装了对YOLOv8模型的操作,包括模型加载、图像预处理、预测执行和后处理。此外,处理层还负责处理图像数据,将摄像头捕获的实时图像转换为模型可以分析的格式。
- 界面层(UI Layer):界面层是用户与系统交互的前端界面,由Ui_MainWindow类生成。它定义了用户操作的各种控件,例如按钮用于启动或停止识别过程,标签用于显示结果,以及图像展示区域用于实时展示识别过程。这个界面不仅需要是用户友好的,还要能够实时响应系统的变化,并将识别结果以直观的方式展示给用户。
- 控制层(Control Layer):控制层则起到了指挥官的角色,它连接处理层和界面层,确保用户界面上的操作能够传递给处理层,并将处理结果反馈给用户。MainWindow类负责这一层的实现,通过定义槽函数和事件处理函数来响应用户的交互请求,如启动视频流、关闭程序等。同时,控制层还负责协调媒体处理器和识别模型,使得它们能够顺畅地工作。
这三层的设计不仅使系统的结构更加清晰,也便于我们在未来对系统进行升级和扩展。例如,如果未来有了更新版本的YOLO模型,我们只需要在处理层进行更新,而不必改动其他部分。同样,如果需要添加更多的用户功能,我们也可以仅在界面层进行扩展,而不影响系统的其他部分。通过这种层次化的架构设计,我们能够构建出一个既强大又灵活的车型识别系统。
(2)系统流程
在本博客中,我们将讲述设计一个交互式常见车型识别系统的全过程。本系统的核心设计理念是用户友好性,高效整合前沿的YOLOv8目标检测技术和直观的用户界面,以确保即使是非专业用户也能轻松使用该系统。在系统的设计中,我们特别强调了处理层、界面层和控制层的分离,旨在实现高效的模块间交互和数据流管理。
我们的系统首先通过MainWindow类的实例初始化,它不仅为用户提供了一个操作界面,还负责配置整个应用程序的相关参数。这样的设计使得用户能够通过一个清晰的界面来选择数据输入源,无论是实时的摄像头捕获、视频文件还是静态图像,都能够轻松接入并处理。
-
当用户启动应用程序时,系统首先实例化MainWindow类。这个类是整个应用的大脑,它负责初始化用户界面、设置参数,并准备一切所需的资源。用户界面的设计旨在提供清晰的导航,让用户无需猜测即可进行下一步操作。
-
确定输入源后,系统调用MediaHandler类来处理实时或静态的媒体数据。这涉及到图像捕获、视频流解码等复杂的媒体处理工作。随后,每一帧数据都会经过精心设计的预处理阶段,这包括调整分辨率、颜色空间的转换等,以确保数据符合YOLOv8模型的输入要求。
-
我们还为用户提供了媒体控制功能,用户可以通过简单的按钮操作来控制媒体流的播放状态,比如开始或暂停实时监控,或者控制视频的播放。这样的设计让用户能够根据自己的需求来控制整个检测流程
总之,这个系统的设计旨在结合先进的车型识别技术和用户友好的界面设计,提供一个高效、直观且可靠的车型识别工具。从系统架构到用户交互,每个环节都经过精心设计,以确保即使是非专业用户也能轻松上手,这也是我们系统设计的主要贡献之一。
5.2 登录与账户管理
在本节中,我们将讨论一个综合性的常见车型识别系统,该系统不仅在技术层面上实现了先进的多物体检测,而且在用户体验方面也进行了深入的设计。一个特别值得注意的特性是系统集成了一个完整的用户账户管理功能,旨在为用户提供一个安全、个性化的使用环境。
我们的系统基于PySide6框架,与SQLite数据库相结合,构建了一个完备的用户登录和注册界面。这个界面不仅简洁直观,而且包含了丰富的功能,如账户创建、密码更新、头像个性化以及账户注销和重新登录等。这些功能为用户提供了一个独立的个人空间,在这个空间内,用户可以保存个人的检测历史和偏好设置,从而实现了个性化的用户体验。
通过用户友好的登录界面,用户可以轻松地注册新账户或登录到系统,然后进入主功能界面进行车型识别任务。系统的设计考虑到了用户可能需要在不同时间点访问和管理个人数据,因此提供了修改密码和头像设置等功能。此外,考虑到用户可能需要在不同设备上使用系统,我们还提供了账户注销和重新登录的选项,增加了使用的灵活性。
主界面是用户与常见车型识别系统交互的中心。在这里,系统实时显示检测框、类别和置信度等关键信息,并支持多种输入方式,包括图片、视频、实时摄像头捕获和批量文件处理。用户可以根据个人需求,选择最合适的输入方式进行车型识别,并将结果记录下来。
整个系统的设计思路是以用户为中心,我们的系统不仅提供了强大的车型识别功能,同时也为用户提供了一套完善的账户管理和个性化体验。这种设计思路使得常见车型识别系统不仅在技术层面上达到先进水平,而且在用户体验上也同样出色,满足了用户在实时目标检测及数据管理方面的多样化需求。
下载链接
若您想获得博文中涉及的实现完整全部资源文件(包括测试图片、视频,py, UI文件,训练数据集、训练代码、界面代码等),这里已打包上传至博主的面包多平台,见可参考博客与视频,已将所有涉及的文件同时打包到里面,点击即可运行,完整文件截图如下:
完整资源中包含数据集及训练代码,环境配置与界面中文字、图片、logo等的修改方法请见视频,项目完整文件下载请见演示与介绍视频的简介处给出:➷➷➷
演示与介绍视频:https://www.bilibili.com/video/BV1KF4m157yY/
在文件夹下的资源显示如下,下面的链接中也给出了Python的离线依赖包,读者可在正确安装Anaconda和Pycharm软件后,复制离线依赖包至项目目录下进行安装,另外有详细安装教程:(1)Pycharm软件安装教程;(2)Anaconda软件安装教程;(3)Python环境配置教程;
离线依赖安装教程:https://www.bilibili.com/video/BV1hv421C7g8/
离线依赖库下载链接:https://pan.baidu.com/s/1y6vqa9CtRmC72SQYPh1ZCg?pwd=33z5 (提取码:33z5)
6. 总结与展望
在本博客中,我们详细介绍了一个基于YOLOv8模型的常见车型识别系统,还实验了YOLOv7、YOLOv6、YOLOv5等模型。系统以模块化的方式设计,充分采用了合理的架构设计,带来良好的可维护性和可扩展性。其用户界面友好,能够提供实时的常见车型识别结果展示,同时支持用户账户管理,以便于保存和管理检测结果和设置。
该系统支持摄像头、视频、图像和批量文件等多种输入源,能够满足用户在不同场景下的需求。在后面可以添加更多预训练模型,增加检测和识别的种类;优化用户界面,增强个性化设置;并积极聆听用户反馈,以期不断改进系统,以更好地满足用户的需求。
结束语
由于博主能力有限,博文中提及的方法即使经过试验,也难免会有疏漏之处。希望您能热心指出其中的错误,以便下次修改时能以一个更完美更严谨的样子,呈现在大家面前。同时如果有更好的实现方法也请您不吝赐教。
Fang W, Wang L, Ren P. Tinier-YOLO: A real-time object detection method for constrained environments[J]. IEEE Access, 2019, 8: 1935-1944. ↩︎
Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2016: 779-788. ↩︎
Redmon J, Farhadi A. YOLO9000: better, faster, stronger[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2017: 7263-7271. ↩︎
Bochkovskiy A, Wang C Y, Liao H Y M. Yolov4: Optimal speed and accuracy of object detection[J]. arXiv preprint arXiv:2004.10934, 2020. ↩︎
Li C, Li L, Jiang H, et al. YOLOv6: A single-stage object detection framework for industrial applications[J]. arXiv preprint arXiv:2209.02976, 2022. ↩︎