在机器学习的广袤天地中,回归任务和分类任务构成了基础的两大支柱,而分割任务与检测任务则是在此基础上衍生出的重要应用方向。
机器学习的基础任务
回归任务
回归预测是监督学习中的一个重要任务,旨在预测连续数值。线性回归是最简单和最广泛使用的回归技术之一。它假设输入变量和输出变量之间存在线性关系,并尝试找到最佳的线性方程来描述这种关系。其核心目标是预测一个连续的数值输出。例如,在预测明天的气温、股票价格走势这类场景中,模型需要通过学习输入特征与输出数值之间的关系,来对新的数据进行数值预测。常见的回归算法包含线性回归、多项式回归、岭回归等。
线性回归通过寻找一条最佳拟合直线,使得所有数据点到该直线的误差平方和最小,是最为基础的回归算法。优点是简单易懂、计算效率高,可解释性强;缺点是只能处理线性关系,对复杂数据拟合效果差,容易受异常值影响。
多项式回归则是对线性回归的扩展,通过引入多项式特征,能够处理更为复杂的非线性关系。优点是能处理非线性关系,拓展了线性回归的适用范围;缺点是容易过拟合,随着多项式次数增加,计算复杂度大幅上升。
岭回归是在最小二乘法的基础上,添加了 L2 正则化项,以此防止模型过拟合。优点是通过 L2 正则化有效防止过拟合,在数据存在多重共线性时表现良好;缺点是引入正则化参数需要调优,可能会牺牲一定的模型解释性。
在回归任务中,常用的损失函数有均方误差(MSE),其公式为,这里
是真实值,
是预测值,
是样本数量。通过最小化 MSE,模型不断调整参数,以提高预测的准确性。
分类任务
分类任务旨在将数据划分到不同的类别之中。比如判断一封邮件是垃圾邮件还是正常邮件,识别图片中的动物是猫还是狗等。分类算法有逻辑回归(尽管名字中带有 “回归”,但它实则是分类算法)、决策树、支持向量机等。
逻辑回归基于线性回归,借助 sigmoid 函数将输出值映射到 0 - 1 之间,从而实现对样本的分类。sigmoid 函数的表达式为 ,它能够将任意实数输入转化为 0 到 1 之间的概率值,方便模型判断样本属于某一类别的可能性。优点是简单高效,计算成本低,可解释性强,适用于大规模数据;缺点是对数据分布有一定要求,只能处理线性可分问题,对复杂非线性关系建模能力弱。
决策树通过对特征进行一系列的判断,构建树形结构,最终得出分类结果。优点是易于理解和解释,不需要数据归一化,能处理离散和连续数据;缺点是容易过拟合,对噪声敏感,且结果不稳定(数据小变动可能导致树结构大变化)。
支持向量机则是寻找一个最优超平面,将不同类别的样本尽可能分开。优点是在小样本、非线性问题上表现出色,泛化能力强;缺点是计算复杂度高,对核函数的选择和参数调优依赖经验,对大规模数据处理效率低。
在分类任务里,常用的损失函数有交叉熵损失函数,对于二分类问题,交叉熵损失函数为,其中
是真实类别标签(0 或 1),
是模型预测的属于正类的概率值。
基于基础任务的衍生任务
图像分割任务
图像分割任务主要应用于图像领域,从本质上来说,它是对分类任务在图像像素层面的细化拓展。其目标是将图像中的每个像素点进行分类,从而分割出不同的物体或区域,例如在医学图像中分割出肿瘤区域、自动驾驶中分割出道路、车辆、行人等。常用的分割算法有全卷积神经网络(FCN)、U - Net 等。FCN 通过将传统卷积神经网络中的全连接层替换为卷积层,实现了对图像的像素级分类。U - Net 则是一种改进的全卷积神经网络,其独特的对称结构,使得网络在收缩路径和扩张路径之间传递特征信息,从而更好地捕捉图像中的上下文信息,提高分割精度。
目标检测任务
目标检测任务同样聚焦于图像领域,它可以理解为分类任务与回归任务的结合。该任务不仅要识别出图像中物体的类别,还要确定物体的位置,以边界框的形式标注出来。在安防监控中检测入侵人员、交通场景中检测车辆和行人等应用场景都离不开检测任务。像基于区域的卷积神经网络(R - CNN)系列、你只需看一次(YOLO)系列等都是检测任务常用算法。R - CNN 通过选择性搜索算法生成候选区域,然后对每个候选区域提取特征并分类,后续又发展出了快速 R - CNN、更快 R - CNN 等改进版本。YOLO 则是将目标检测任务转化为一个回归问题,直接在图像的多个位置进行预测,大大提高了检测速度。
机器学习中的回归任务和分类任务是基础,为分割任务和检测任务提供了理论和算法基础。分割任务和检测任务则是在基础任务上,针对图像领域的具体应用需求而衍生出来的,它们相互补充,共同推动着机器学习技术在不同领域的广泛应用和发展。随着技术的不断进步,这些任务的算法和应用也将持续拓展和深化。