之前写过yolov8seg部署,但在实际项目中没有真正的用,最近在项目尝试使用yolov8seg,把之前的yolov8目标检测的优化给同步到yolov8seg中。
特别说明:如有侵权告知删除,谢谢。
模型和完整仿真测试代码,放在github上参考链接 模型和代码。
1 模型和训练
训练代码参考官方开源的yolov8训练代码。
2 导出 yolov8 onnx
导出onnx增加以下几行代码:
# 导出 onnx 增加
y = []
for i in range(self.nl):
t1 = self.cv2[i](x[i])
t2 = self.cv3[i](x[i])
y.append(t1)
y.append(t2)
return y
# 导出 onnx 增加(修改)
# mc = torch.cat([self.cv4[i](x[i]).view(bs, self.nm, -1) for i in range(self.nl)], 2) # mask coefficients
mc = [self.cv4[i](x[i]) for i in range(self.nl)]
x = self.detect(self, x)
return x, mc, p
增加保存onnx模型代码
print("=========== onnx =========== ")
import torch
dummy_input = torch.randn(1, 3, 640, 640)
input_names = ["data"]
output_names = ["cls1", "reg1", "cls2", "reg2", "cls3", "reg3", "mc1", "mc2", "mc3", "seg"]
torch.onnx.export(self.model, dummy_input, "./yolov8nseg_relu_80class_dfl.onnx", verbose=False, input_names=input_names, output_names=output_names, opset_version=12)
print("======================== convert onnx Finished! .... ")
修改完以上,运行推理脚本(运行会报错,但不影响onnx文件的生成)。
from ultralytics import YOLO
# 推理
model = YOLO('./weights/yolov8nseg_relu_80class.pt')
results = model(task='detect', mode='predict', source='./images/test.jpg', line_width=3, show=True, save=True, device='cpu')
3 onnx测试效果
4 rknn 板端C++部署
C++完整部署代码和模型示例参考
把板端C++代码的模型和时耗也给贴出来供大家参考,使用芯片rk3588。相对之前在rk3588上推理45ms,降到了15ms;后处理时耗由5ms,增加到18.6ms;整个检测过程由
50ms,降到33ms。
本篇部署方式时耗参考:
之前部署方式时耗参考: