YOLOV8逐步分解(5)_模型训练初始设置之混合精度训练AMP

yolov8逐步分解(1)--默认参数&超参配置文件加载

yolov8逐步分解(2)_DetectionTrainer类初始化过程

yolov8逐步分解(3)_trainer训练之模型加载_yolov8 加载模型-CSDN博客

YOLOV8逐步分解(4)_模型的构建过程

        在上述文章逐步分解(3)和(4)中主要讲解了模型训练初始设置中self.setup_model()函数模型的加载及构建过程,本章将讲解混合精度训练AMP的相关代码。

        下面是_setup_train()函数的详细代码。

def _setup_train(self, world_size):
        """ Builds dataloaders and optimizer on correct rank process.   """
        # Model
        self.run_callbacks('on_pretrain_routine_start')
        ckpt = self.setup_model()#加载模型
        self.model = self.model.to(self.device)
        self.set_model_attributes()
        
        # Check AMP
        self.amp = torch.tensor(self.args.amp).to(self.device)  # True or False
        if self.amp and RANK in (-1, 0):  
            callbacks_backup = callbacks.default_callbacks.copy()  # backup callbacks as check_amp() resets them
            self.amp = torch.tensor(check_amp(self.model), device=self.device) #使用 check_amp 函数检查模型是否支持混合精度
            callbacks.default_callbacks = callbacks_backup  # restore callbacks, 恢复回之前备份的回调函数
        if RANK > -1 and world_size > 1:  # DDP 使用 dist.broadcast 将 self.amp 张量从rank 0广播到其他所有rank(返回None)。
            dist.broadcast(self.amp, src=0)  # broadcast the tensor from rank 0 to all other ranks (returns None)
        self.amp = bool(self.amp)  # as boolean
        self.scaler = amp.GradScaler(enabled=self.amp) #创建一个 scaler 对象,用于在混合精度训练中缩放梯度
        if world_size > 1:
            self.model = DDP(self.model, device_ids=[RANK])
        # Check imgsz
        gs = max(int(self.model.stride.max() if hasattr(self.model, 'stride') else 32), 32)  # grid size (max stride)
        self.args.imgsz = check_imgsz(self.args.imgsz, stride=gs, floor=gs, max_dim=1)
        
        # Batch size
        if self.batch_size == -1: #表示批量大小需要自动估计
            if RANK == -1:  # single-GPU only, estimate best batch size
              self.args.batch = self.batch_size = check_train_batch_size(self.model, self.args.imgsz, self.amp)#估计最佳批量大小
            else:
                SyntaxError('batch=-1 to use AutoBatch is only available in Single-GPU training. '
                            'Please pass a valid batch size value for Multi-GPU DDP training, i.e. batch=16')
        # Dataloaders
        batch_size = self.batch_size // max(world_size, 1)
        self.train_loader = self.get_dataloader(self.trainset, batch_size=batch_size, rank=RANK, mode='train')#获取训练集
        if RANK in (-1, 0):
            self.test_loader = self.get_dataloader(self.testset, batch_size=batch_size * 2, rank=-1, mode='val') #获取测试集
            self.validator = self.get_validator() #创建验证器(validator),用于评估模型在验证数据集上的性能。
            metric_keys = self.validator.metrics.keys + self.label_loss_items(prefix='val')
            self.metrics = dict(zip(metric_keys, [0] * len(metric_keys)))  # TODO: init metrics for plot_results()?
            self.ema = ModelEMA(self.model)
            if self.args.plots and not self.args.v5loader: #如果 self.args.plots 为真且 self.args.v5loader 为假
                self.plot_training_labels() #绘制训练标签的图表
        # Optimizer
        self.accumulate = max(round(self.args.nbs / self.batch_size), 1)  # accumulate loss before optimizing
        weight_decay = self.args.weight_decay * self.batch_size * self.accumulate / self.args.nbs  # scale weight_decay
        iterations = math.ceil(len(self.train_loader.dataset) / max(self.batch_size, self.args.nbs)) * self.epochs
        self.optimizer = self.build_optimizer(model=self.model,
                                              name=self.args.optimizer,
                                              lr=self.args.lr0,
                                              momentum=self.args.momentum,
                                              decay=weight_decay,
                                              iterations=iterations)
        # Scheduler
        if self.args.cos_lr:
            self.lf = one_cycle(1, self.args.lrf, self.epochs)  # cosine 1->hyp['lrf']
        else:
            self.lf = lambda x: (1 - x / self.epochs) * (1.0 - self.args.lrf) + self.args.lrf  # linear
        
        self.scheduler = optim.lr_scheduler.LambdaLR(self.optimizer, lr_lambda=self.lf)
        self.stopper, self.stop = EarlyStopping(patience=self.args.patience), False
        self.resume_training(ckpt) #恢复训练过程。ckpt 是一个检查点文件,用于加载之前保存的模型和训练状态。
        self.scheduler.last_epoch = self.start_epoch - 1  # do not move
        self.run_callbacks('on_pretrain_routine_end') #运行预训练过程结束时的回调函数。

1. setup_model()的代码讲解

前面已经讲解了self.setup_model()的代码,这里再简单介绍一下相关代码:

        # Model
        self.run_callbacks('on_pretrain_routine_start')
        ckpt = self.setup_model()#加载模型
        self.model = self.model.to(self.device)
        self.set_model_attributes()

1.1 self.run_callbacks('on_pretrain_routine_start'):

这行代码触发了预训练例程开始的回调函数。回调函数是一种允许在训练过程中的特定时间点执行自定义操作的机制。

在这里,可能有一些定制的操作需要在模型预训练开始时执行,比如日志记录、模型参数初始化等。

1.2. ckpt = self.setup_model():

这行代码调用了 self.setup_model() 方法,它负责设置和加载模型。

ckpt 变量可能保存着模型的检查点(checkpoint)信息,例如预训练的权重等,以便后续使用。

1.3. self.model = self.model.to(self.device):

这行代码将模型移动到指定的设备上,通常是 GPU 或 CPU。

这是为了确保模型的计算在正确的硬件设备上进行,以利用硬件加速提高训练效率。

1.4. self.set_model_attributes():

这行代码调用了 self.set_model_attributes() 方法,可能用于设置或更新模型的一些属性。

Yolov8中用于设置属性names。

        这段代码是模型训练流程的初始化阶段。它执行了一些必要的模型加载构建等设置和准备工作,为后续的训练过程做好了准备。

2. 混合精度训练MAP代码讲解

        # Check AMP
        self.amp = torch.tensor(self.args.amp).to(self.device)  # True or False
        if self.amp and RANK in (-1, 0):  
            callbacks_backup = callbacks.default_callbacks.copy()  # backup callbacks as check_amp() resets them
            self.amp = torch.tensor(check_amp(self.model), device=self.device) #使用 check_amp 函数检查模型是否支持混合精度
            callbacks.default_callbacks = callbacks_backup  # restore callbacks, 恢复回之前备份的回调函数
        if RANK > -1 and world_size > 1:  # DDP 使用 dist.broadcast 将 self.amp 张量从rank 0广播到其他所有rank(返回None)。
            dist.broadcast(self.amp, src=0)  # broadcast the tensor from rank 0 to all other ranks (returns None)
        self.amp = bool(self.amp)  # as boolean
        self.scaler = amp.GradScaler(enabled=self.amp) #创建一个 scaler 对象,用于在混合精度训练中缩放梯度
        if world_size > 1:
            self.model = DDP(self.model, device_ids=[RANK])

上述代码是处理模型的混合精度训练(Automatic Mixed Precision, AMP),可以参考文章深度学习之混合精度训练AMP介绍。下面逐步解释一下它的代码:

2.1 self.amp = torch.tensor(self.args.amp).to(self.device):

        这行代码将用户传入的 self.args.amp 参数(True或False)转换为一个 PyTorch 张量,并将其移动到指定的设备上。

        这个 self.amp 张量将用于决定是否启用混合精度训练。

2.2 if self.amp and RANK in (-1, 0)::

        这个条件检查是否启用了混合精度训练,并且当前进程的 rank 为 -1 或 0。

        rank 为 -1 通常表示单机训练,rank 0 表示分布式训练中的主进程。

2.3 self.amp = torch.tensor(check_amp(self.model), device=self.device):

        这行代码使用 check_amp() 函数检查模型是否支持混合精度训练。

        检查结果被存储在 self.amp 张量中。

2.4 callbacks.default_callbacks = callbacks_backup:

        在调用 check_amp() 之前,代码先备份了默认的回调函数列表。

        这是因为 check_amp() 可能会重置回调函数,所以需要在检查完成后将其恢复。

2.5 if RANK > -1 and world_size > 1:

        如果当前处于分布式训练模式(RANK > -1 且 world_size > 1),则使用 dist.broadcast() 将 self.amp 张量从 rank 0 广播到所有其他rank。

        这确保了所有进程使用相同的 self.amp 值。

2.6 self.amp = bool(self.amp):

        将 self.amp 从张量转换为布尔值,方便后续使用。

2.7 self.scaler = amp.GradScaler(enabled=self.amp):

        创建一个 GradScaler 对象,用于在启用混合精度训练时缩放梯度。

2.8  self.model = DDP(self.model, device_ids=[RANK]):

        如果是分布式训练,则将模型包装成 DistributedDataParallel (DDP)模型,以支持分布式训练。

        这段代码的主要目的是检查模型是否支持混合精度训练,并根据检查结果设置相应的配置。这有助于提高训练效率和性能。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/650865.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

第十二届蓝桥杯物联网试题(国赛)

不得不说国赛相比较省赛而言确实,功能变得更加复杂,更加繁琐,特别是串口LORA通信相结合的更加频繁,且对收取的字符处理要求要更加复杂,处理判别起来会更加复杂。 对于收发数据本身来说,收发的数据本身是以…

导入 FDTD 仿真的 S 参数到 INTERCONNECT 的器件中

导入 FDTD 仿真的 S 参数到 INTERCONNECT 的器件中 正文正文 很多时候,仿真链路比较大时,我们可以将仿真的每个部分分隔开来,用 FDTD 计算出每一部分的 S 参数,然后将这些 S 参数导入 INTERCONNECT 中得到最终的仿真结果。这里我们来介绍一下这种方法。 首先,我们从右侧…

最简单的AI训练方法-RAG增强检索原理

文章目录 1、RAG( Retrieval-Augmented Generation)2、RAG的基本原理3、简化训练流程4、RAG增强检索原理图 1、RAG( Retrieval-Augmented Generation) RAG( Retrieval-Augmented Generation)是一种结合了检…

完全背包+背包装满 总结

目录 1.背包恰好装满 (1)问题是什么 (2)问题的有效状态和无效状态 (3)问题的常考形式,以及如何去处理 1.值的大小 2.组合个数 3.排列个数 2.例题 A. Cut Ribbon HDU1114 Piggy-Bank …

计算机视觉中-语义分割

语义分割 语义分割是计算机视觉中的一个关键技术,它涉及对图像中的每个像素进行类别划分,从而识别出图像中的不同物体或区域。具体来说,语义分割就是按照“语义”给图像上目标类别中的每一点打上一个标签,使得不同种类的东西在图像…

装机必备——WinRAR安装教程

装机必备——WinRAR安装教程 软件下载 软件名称:WinRAR 软件语言:简体中文 软件大小:3.38M 系统要求:Windows7或更高, 32/64位操作系统 硬件要求:CPU2GHz ,RAM4G或更高 下载通道①迅雷云盘丨下…

AI重塑了我的工作流

阅读内容 Inhai: Agentic Workflow:AI 重塑了我的工作流 4 种主要的 Agentic Workflow 设计模式 Reflection(反思):让 Agent 审视和修正自己生成的输出。 举例:如果有两个 Agent:一个负责 Coding&#…

【uniapp】uniapp基本介绍

目录 介绍体验uni-app优势功能框架图 uni-app组成和跨端原理基本语言和开发规范 编译器运行时(runtime)uni-app runtime包括3部分:基础框架、组件、API基础框架:组件:组件的扩展: API: 逻辑层和…

工业网关设备:HiWoo Box网关

在数字化、智能化的工业浪潮中,工业网关以其卓越的性能和广泛的应用场景,成为了工业互联的核心驱动力。作为一款高效、稳定、智能的工业网关设备,HiWoo Box网关不仅实现了工业现场设备与网络的高效连接,更为企业提供了智能化的数据…

C++青少年简明教程:switch语句

C青少年简明教程:switch语句 在C中,switch语句用于基于一个表达式的值来执行不同的代码块。这个表达式通常是一个整数类型(如int,char,或枚举类型),并且case标签必须是整数常量表达式。 语法格…

Node.js —— Express 中间件、接口编写、接口跨域 【0基础向Express模块学习】

目录 中间件的概念 什么是中间件 现实生活中的例子 Express 中间件的调用流程 ​编辑 Express 中间件的格式 next 函数的作用 Express 中间件的初体验 定义中间件函数 全局生效的中间件 定义全局中间件的简化形式 中间件的作用 ​编辑 定义多个全局中间件 局部生…

【技术分享】Maven常用配置

一、Maven简介 (一)为什么使用 Maven 由于 Java 的生态非常丰富,无论你想实现什么功能,都能找到对应的工具类,这些工具类都是以 jar 包的形式出现的,例如 Spring,SpringMVC、MyBatis、数据库驱…

OrangePi Kunpeng Pro 开发板测评及Python开发实测

一、背景 首先感谢 创新乐知通过CSDN 邀请本人,参与这次 评测活动。这块开发板是香橙派联合华为精心打造,具有超强算力的鲲鹏开发板。本人使用最多的还是树莓派系列的板子,国产板子特别是华为为核心的板子还是头一次使用,特别感兴…

Linux-挂盘-分区-卸盘

Linux-挂盘-分区-卸盘 1. 添加硬盘 2. 查看硬盘 [rootlocalhost /]# lsblk # 查看我们新添加的磁盘 NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 80G 0 disk ├─sda1 8:1 0 1G 0 part /boot └─sda2 …

Ubuntu22.04之解决:忘记登录密码(二百三十二)

简介: CSDN博客专家,专注Android/Linux系统,分享多mic语音方案、音视频、编解码等技术,与大家一起成长! 优质专栏:Audio工程师进阶系列【原创干货持续更新中……】🚀 优质专栏:多媒…

深入解读 ChatGPT 的基本原理(个人总结版)

引言 背景 人工智能(AI)技术自20世纪中期诞生以来,经历了多次革新和进步。从最早的图灵测试,到20世纪末的深蓝计算机击败国际象棋冠军,再到21世纪初谷歌AlphaGo击败围棋冠军,AI技术的飞速发展改变了人们的…

【数理统计03】集中不等式

集中不等式(concentration inequalities)是在概率论和统计学中用于描述随机变量(尤其是随机变量的和或函数)的集中程度的一类不等式。它们为随机变量偏离其期望值的概率提供了上界。这些不等式在很多领域都有应用,包括…

3D 生成重建015-nerf2mesh从神经辐射场中提取mesh和纹理!

3D 生成重建015-nerf2mesh从神经辐射场中提取mesh和纹理! 文章目录 0 论文工作1 论文方法2 效果 0 论文工作 NeRF2Mesh 提出了一种从多视角 RGB 图像重建纹理表面网格的新方法。它克服了传统 NeRF 模型的局限性,由于其隐式表示,传统 NeRF 模…

代码随想录算法训练营第20天 |● 654.最大二叉树 ● 617.合并二叉树 ● 700.二叉搜索树中的搜索 ● 98.验证二叉搜索树

文章目录 前言654.最大二叉树思路方法一 递归法方法一2 老师的优化递归法 617.合并二叉树思路方法一 递归法方法二 迭代法 700.二叉搜索树中的搜索思路方法一 递归法方法二 迭代法 98.验证二叉搜索树思路方法一 使用数组方法二 不使用数组代码注意点: 方法二 使用双…

mysql中连接查询的成本

大家好。上篇文章我们讲了mysql中成本的含义以及单表查询如何计算成本。现在我们接着讲讲mysql中连接查询的成本。 在讲之前,我们先创建两张一样的表single_table和single_table2,并在表中插入10000条数据。在下面的讲解中,我们称single_tab…