相关向量机RVM算法介绍继承sklearn-SVM-API实现回归预测算例

一、相关向量机RVM与支持向量机SVM对比

1、相关向量机(RVM)

①定义与原理

相关向量机(Relevance Vector Machine, RVM)是一种基于概率模型的机器学习算法,主要用于分类和回归分析。基于稀疏贝叶斯学习框架,通过自动选择一小部分相关向量来进行回归或分类任务。RVM使用贝叶斯公式对权重进行更新和调整,通过最大化似然函数来更新权重,并利用高斯过程进行建模。这种方法可以在训练时自动调整权重,以适应数据的变化和不确定性。

常用的核函数有rbf(高斯)径向基核函数、liner线性核函数、poly多项式核函数。高斯核函数是径向基核函数的一种,但在RVM中rbf径向基核函数特指高斯核函数。

②结构与组成

RVM由输入层、隐含层输出层组成。输入层负责接收外部数据,隐含层负责数据计算和加工,输出层负责输出结果。其中,隐含层中的权重和偏置可以通过训练得到,以实现最优的分类或回归效果。

③优势与应用

RVM高效、灵活、易于理解!与传统的支持向量机(SVM)相比,RVM需要的训练时间更短,且可以在处理高维数据时表现更优秀。此外,RVM还具有很好的可解释性,可以帮助用户理解模型的决策过程。

RVM可以应用于各种领域,如金融、医疗、图像处理等。例如,在金融领域中,RVM可以用于信用评级和风险评估;在医疗领域中,RVM可以用于疾病诊断和预测;在图像处理领域中,RVM可以用于图像分类和识别。


2、支持向量机(SVM)

①定义与原理

支持向量机(Support Vector Machine, SVM)是一种二分类模型,其目标是寻找一个超平面来对样本进行分割,分割的原则是间隔最大化。SVM通过引入核函数方法,克服了维数灾难和非线性可分的问题,向高维空间映射时没有增加计算的复杂性。SVM的最终决策函数只由少数的支持向量所确定,因此计算的复杂性取决于支持向量的数目,而不是样本空间的维数。

②优势与局限

SVM算法具有在小样本情况下表现优异、泛化能力强等优点。然而,SVM对于大规模训练样本难以实施,因为SVM算法借助二次规划求解支持向量,这其中会涉及m阶矩阵的计算,当矩阵阶数很大时将耗费大量的机器内存和运算时间。此外,经典SVM算法只给出了二分类的算法,对于多分类问题解决效果并不理想


3、RVM与SVM的对比

  • 优化目标
    • RVM:基于贝叶斯框架,通过最大化边缘似然函数来选择相关向量,实现稀疏化
    • SVM:寻找最大间隔的超平面进行样本分割。
  • 计算复杂度
    • RVM:在处理高维数据时表现更优秀,训练时间相对较短。
    • SVM:对于大规模训练样本,计算复杂度较高,特别是在高维空间中。
  • 模型稀疏性
    • RVM:通过自动选择相关向量,模型更加稀疏。
    • SVM:虽然决策函数由支持向量决定,但支持向量的数量可能较多,不一定总是稀疏的。
  • 输出类型
    • RVM:可以给出概率型的输出,具有更好的可解释性。
    • SVM:输出为分类标签或回归值,不直接提供概率信息。
  • 适用场景
    • RVM:由于其高效、灵活和稀疏性,适用于需要快速训练和解释的场景。
    • SVM:在小样本情况下表现优异,广泛应用于各种分类和回归问题。

二、Python算例——RVM回归预测&分类

1、定义RVM基类——BaseRVM

由于sklearn中没现成的相关向量机库,可以借助sklearn-SVM库的API(继承它一些功能),再根据需要编写一些独属RVM的类,即可实现RVM模型。由于自己学习笔记的特征,博主特地加了详细注释

import numpy as np

from scipy.optimize import minimize
from scipy.special import expit

from sklearn.base import BaseEstimator, RegressorMixin, ClassifierMixin
from sklearn.metrics.pairwise import (
    linear_kernel,
    rbf_kernel,
    polynomial_kernel
)
from sklearn.multiclass import OneVsOneClassifier
from sklearn.utils.validation import check_X_y

#sklearn中不存在标准的RVM需要的类,属于SVM的变种。需要自己定义RVM的类,回归和分类都有。(对象的三大属性:封装、继承、多态)
class BaseRVM(BaseEstimator):
    """提供RVM共通的方法或属性——无论分类还是回归都会用到
    继承了scikit-learn API中的BaseEstimator类。添加后验加权方法和预测,用于分类或回归的子类。
    """

    def __init__(
            self,
            kernel='rbf',
            degree=3,
            coef1=None,
            coef0=0.0,
            n_iter=3000,
            tol=1e-3,
            alpha=1e-6,
            threshold_alpha=1e9,
            beta=1.e-6,
            beta_fixed=False,
            bias_used=True,
            verbose=False
    ):   #定义属性变量时,已经设置好了默认值
        """类定义的一般格式。使用时通过对象.属性名的方式访问,如BaseRVM.kernel(类中的函数也是:对象.函数名方式访问使用)"""
        self.kernel = kernel  #基函数(核函数),一般rbf为径向基函数,poly为多项式核
        self.degree = degree  #当kernel为'poly'时,此参数指定多项式的度。对于其他类型的核,此参数将被忽略。
        self.coef1 = coef1    #当使用'rbf'或'poly'核时,此参数用于指定核函数的第一个系数。对于'rbf',影响径向基函数的宽度或平滑度。对于'poly',影响多项式核的系数。如果设置为None,则使用默认的核函数参数
        self.coef0 = coef0    #当使用'poly'(多项式)核时,此参数指定多项式核的常数项。对于其他类型的核,此参数将被忽略
        self.n_iter = n_iter  #迭代的最大次数。RVM通过迭代优化过程来找到最佳的相关性向量
        self.tol = tol        #收敛容差。当算法连续迭代中alpha值的变化小于此容差时,认为算法已经收敛,停止迭代
        self.alpha = alpha    #所有基础函数的初始alpha值(即每个基础函数的先验精度)。在RVM中,alpha值越大,对应的基础函数越有可能成为相关性向量。
        self.threshold_alpha = threshold_alpha  #用于裁剪(prune)过程的阈值。alpha值大于此阈值的基础函数将被保留为相关性向量
        self.beta = beta      #噪声精度的初始值。在RVM中,beta值控制了对观测噪声的估计
        self.beta_fixed = beta_fixed #指定beta值是否在整个训练过程中保持不变。如果为True,则beta值在训练过程中不会更新
        self.bias_used = bias_used   #指定是否在模型中包含偏置项(即常数项)。对于许多实际问题,包含偏置项可以提高模型的灵活性
        self.verbose = verbose       #控制是否打印训练过程中的额外信息。如果为True,则训练过程中会打印迭代次数、alpha值、beta值等信息.

    def get_params(self, deep=True):
        """将类的所有参数(即属性)以字典的形式返回。这是遵循scikit-learn API的一种常见做法,使得模型的参数可以很容易地被获取和检查。
        deep参数通常用于控制是否递归地获取嵌套对象(例如,如果模型的某些属性也是具有get_params方法的scikit-learn兼容对象)的参数。
        然而,在这个例子中,BaseRVM类并没有这样的嵌套对象,因此deep参数没有被用到。
        """
        params = {
            'kernel': self.kernel,
            'degree': self.degree,
            'coef1': self.coef1,
            'coef0': self.coef0,
            'n_iter': self.n_iter,
            'tol': self.tol,
            'alpha': self.alpha,
            'threshold_alpha': self.threshold_alpha,
            'beta': self.beta,
            'beta_fixed': self.beta_fixed,
            'bias_used': self.bias_used,
            'verbose': self.verbose
        }
        return params

    def set_params(self, **parameters):
        """set_params方法也是scikit-learn API中的一部分,用于通过关键字参数(kwargs)设置对象的参数(即属性)。
        set_params方法使得用户可以一次性地更新模型的多个参数,而不需要单独调用每个属性的setter方法。
        **parameters可变关键字参数允许传入任意数量的关键字参数。
    通过遍历parameters字典的项(即参数名和对应的值),使用setattr函数动态地将每个参数名(parameter)作为属性名,将对应的值(value)作为属性值,设置到当前对象(self)上。
        """
        for parameter, value in parameters.items():
            setattr(self, parameter, value)  #setattr函数设置对象的属性值。第一个参数是要设置属性的对象,第二个参数是属性名(作为字符串),第三个参数是要设置的新属性值。
        return self  #set_params方法返回当前对象(self),这允许链式调用,即可以在一个表达式中连续调用多个方法。例如有一个模型对象model想要一次性设置kernel和degree参数:model.set_params(kernel='rbf', degree=3)

    def _apply_kernel(self, x, y):
        """根据选择的核函数,进行对应的运算。线性、径向基、多项式、自定义核"""
        if self.kernel == 'linear':
            phi = linear_kernel(x, y)
        elif self.kernel == 'rbf':
            phi = rbf_kernel(x, y, self.coef1)
        elif self.kernel == 'poly':
            phi = polynomial_kernel(x, y, self.degree, self.coef1, self.coef0)
        elif callable(self.kernel):
            phi = self.kernel(x, y)
            if len(phi.shape) != 2:
                raise ValueError(
                    "Custom kernel function did not return 2D matrix"
                )
            if phi.shape[0] != x.shape[0]:
                raise ValueError(
                    "Custom kernel function did not return matrix with rows"
                    " equal to number of data points."""
                )
        else:
            raise ValueError("Kernel selection is invalid.")

        if self.bias_used: #如果self.bias_used为True,则在返回的核函数结果phi上添加一个偏置项。
            phi = np.append(phi, np.ones((phi.shape[0], 1)), axis=1)  #通过在phi矩阵的末尾添加一列全1来实现的,使用np.append函数沿着列方向(axis=1)添加
        return phi

    def _prune(self):
        """根据 alpha 值的阈值来移除基础函数"""
        # 根据alpha值是否小于阈值threshold_alpha来确定哪些基础函数需要保留
        keep_alpha = self.alpha_ < self.threshold_alpha

        # 如果没有任何alpha值小于阈值,则至少保留第一个基础函数
        # 如果模型中使用了偏置项(bias_used为True),则也保留最后一个基础函数(通常是偏置项)
        if not np.any(keep_alpha):
            keep_alpha[0] = True
            if self.bias_used:
                keep_alpha[-1] = True

        # 如果模型中使用了偏置项
        if self.bias_used:
            # 如果最后一个基础函数(偏置项)不在保留列表中,则设置bias_used为False
            if not keep_alpha[-1]:
                self.bias_used = False
            # 更新relevance_数组,移除不需要的基础函数的相关性信息
            # 注意这里使用keep_alpha[:-1]来排除偏置项(如果存在且不需要保留)
            self.relevance_ = self.relevance_[keep_alpha[:-1]]
        else:
            # 如果模型中没有使用偏置项,则直接根据keep_alpha来更新relevance_数组
            self.relevance_ = self.relevance_[keep_alpha]

        # 更新alpha_数组,只保留需要的基础函数的alpha值
        self.alpha_ = self.alpha_[keep_alpha]
        # 更新alpha_old数组,与alpha_相同,只保留需要的值
        self.alpha_old = self.alpha_old[keep_alpha]
        # 更新gamma数组,只保留与保留的基础函数相关的值
        self.gamma = self.gamma[keep_alpha]
        # 更新phi矩阵,只保留与保留的基础函数相关的列
        self.phi = self.phi[:, keep_alpha]
        # 更新sigma_矩阵,这是一个协方差矩阵,只保留与保留的基础函数相关的行和列
        self.sigma_ = self.sigma_[np.ix_(keep_alpha, keep_alpha)]
        # 更新m_数组,只保留需要的基础函数的m值(可能是某种均值或参数)
        self.m_ = self.m_[keep_alpha]
        """通过修改与这些基础函数相关的各种属性(如 alpha_, gamma, phi, sigma_, m_ 等)来实现对基础函数的剪枝(即移除不重要的基础函数)
        贝叶斯学习的特性:通过自动确定哪些输入特征(基础函数)对模型预测最为重要,从而实现模型的稀疏性"""

    def fit(self, X, y):
        """Fit the RVR to the training data."""
        # 检查输入数据X和y是否符合要求
        X, y = check_X_y(X, y)

        # 获取样本数量和特征数量
        n_samples, n_features = X.shape

        # 应用核函数计算phi矩阵,phi矩阵是输入数据X通过核函数转换后的结果
        # 在RVM中,phi矩阵通常用于表示基础函数的激活程度
        self.phi = self._apply_kernel(X, X)

        # 获取基础函数的数量,即phi矩阵的列数
        n_basis_functions = self.phi.shape[1]

        # 初始化relevance_为X(这里可能是个错误,通常relevance_应该用于存储与基础函数相关性的某种度量)
        # 在实际实现中,relevance_可能需要在后续步骤中根据alpha值或其他标准来更新
        self.relevance_ = X
        self.y = y  # 存储目标变量

        # 初始化alpha_(基础函数的权重或重要性度量)为alpha(一个超参数)乘以全1向量
        self.alpha_ = self.alpha * np.ones(n_basis_functions)
        self.beta_ = self.beta  # 初始化beta_(噪声精度或噪声方差的倒数)

        # 初始化m_(基础函数的均值或参数)为零向量
        self.m_ = np.zeros(n_basis_functions)

        # 保存旧的alpha_值以便后续比较
        self.alpha_old = self.alpha_

        # 执行迭代优化过程
        for i in range(self.n_iter):
            # 执行后验更新步骤,通常涉及计算m_和sigma_(协方差矩阵)
            self._posterior()

            # 更新gamma,它可能与alpha_和sigma_的对角线元素有关
            self.gamma = 1 - self.alpha_ * np.diag(self.sigma_)

            # 更新alpha_,通常基于gamma和m_的平方
            self.alpha_ = self.gamma / (self.m_ ** 2)

            # 如果beta_不是固定的,则更新beta_
            if not self.beta_fixed:
                # beta_的更新公式通常涉及样本数量、gamma的总和以及残差平方和
                self.beta_ = (n_samples - np.sum(self.gamma)) / (
                    np.sum((y - np.dot(self.phi, self.m_)) ** 2))

                # 执行剪枝步骤,移除不重要的基础函数
            self._prune()

            # 如果启用了详细输出,则打印当前迭代的信息
            if self.verbose:
                print("Iteration: {}".format(i))
                print("Alpha: {}".format(self.alpha_))
                print("Beta: {}".format(self.beta_))
                print("Gamma: {}".format(self.gamma))
                print("m: {}".format(self.m_))
                print("Relevance Vectors: {}".format(self.relevance_.shape[0]))
                print()

            # 检查alpha_的变化是否小于容忍度tol,并且迭代次数大于1,如果是,则提前终止迭代
            delta = np.amax(np.absolute(self.alpha_ - self.alpha_old))

            if delta < self.tol and i > 1:
                break

                # 更新alpha_old为当前alpha_的值,以便下一次迭代比较
            self.alpha_old = self.alpha_

            # 如果模型中使用了偏置项,则将偏置项的值存储在self.bias中
        if self.bias_used:
            self.bias = self.m_[-1]
        else:
            self.bias = None

        return self  # 返回拟合后的模型实例

2、定义RVM-回归Regression类——RVR

继承BaseRVM基类功能,实现RVM的回归预测功能。

class RVR(BaseRVM, RegressorMixin):
    """相关向量机RVM回归问题Regression——RVR
    Implementation of Mike Tipping's Relevance Vector Machine for regression
    借助scikit-learn API
    """
    def _posterior(self):
        """计算权重(或基础函数参数)的后验分布。通过求解后验均值(m_)和后验协方差(sigma_)来实现"""
        i_s = np.diag(self.alpha_) + self.beta_ * np.dot(self.phi.T, self.phi) #中间变量i_s
        self.sigma_ = np.linalg.inv(i_s)  #通过中间变量i_s计算后验协方差矩阵sigma_
        self.m_ = self.beta_ * np.dot(self.sigma_, np.dot(self.phi.T, self.y)) #计算后验均值向量m_ ,其中 self.y 是目标变量。

    def predict(self, X, eval_MSE=False):
        """对新的输入数据 X 进行预测,并可选地计算预测的均方误差(MSE)"""
        phi = self._apply_kernel(X, self.relevance_)  #计算新的输入数据 X 与当前相关性向量(self.relevance_)之间的核函数值,存储在 phi 中
        y = np.dot(phi, self.m_) #预测y值
        if eval_MSE:
            MSE = (1 / self.beta_) + np.dot(phi, np.dot(self.sigma_, phi.T))
            return y, MSE[:, 0] #返回预测值 y 和MSE的每一行的第一个元素(假设MSE是一个二维数组,每行对应一个输入样本的MSE)
        else:
            return y

3、定义RVM-分类Classification类——RVC

继承BaseRVM基类功能,实现RVM的分类功能。

class RVC(BaseRVM, ClassifierMixin):
    """相关向量机RVM分类问题——简称RVC
    Implementation of Mike Tipping's Relevance Vector Machine for
   借助 scikit-learn API.
    """

    def __init__(self, n_iter_posterior=50, **kwargs):
        """Copy params to object properties, no validation."""
        self.n_iter_posterior = n_iter_posterior
        super(RVC, self).__init__(**kwargs)

    def get_params(self, deep=True):
        """Return parameters as a dictionary."""
        params = super(RVC, self).get_params(deep=deep)
        params['n_iter_posterior'] = self.n_iter_posterior
        return params

    def _classify(self, m, phi):
        return expit(np.dot(phi, m))

    def _log_posterior(self, m, alpha, phi, t):

        y = self._classify(m, phi)

        log_p = -1 * (np.sum(np.log(y[t == 1]), 0) +
                      np.sum(np.log(1 - y[t == 0]), 0))
        log_p = log_p + 0.5 * np.dot(m.T, np.dot(np.diag(alpha), m))

        jacobian = np.dot(np.diag(alpha), m) - np.dot(phi.T, (t - y))

        return log_p, jacobian

    def _hessian(self, m, alpha, phi, t):
        y = self._classify(m, phi)
        B = np.diag(y * (1 - y))
        return np.diag(alpha) + np.dot(phi.T, np.dot(B, phi))

    def _posterior(self):
        result = minimize(
            fun=self._log_posterior,
            hess=self._hessian,
            x0=self.m_,
            args=(self.alpha_, self.phi, self.t),
            method='Newton-CG',
            jac=True,
            options={
                'maxiter': self.n_iter_posterior
            }
        )

        self.m_ = result.x
        self.sigma_ = np.linalg.inv(
            self._hessian(self.m_, self.alpha_, self.phi, self.t)
        )

    def fit(self, X, y):
        """Check target values and fit model."""
        self.classes_ = np.unique(y)
        n_classes = len(self.classes_)

        if n_classes < 2:
            raise ValueError("Need 2 or more classes.")
        elif n_classes == 2:
            self.t = np.zeros(y.shape)
            self.t[y == self.classes_[1]] = 1
            return super(RVC, self).fit(X, self.t)
        else:
            self.multi_ = None
            self.multi_ = OneVsOneClassifier(self)
            self.multi_.fit(X, y)
            return self

    def predict_proba(self, X):
        """Return an array of class probabilities."""
        phi = self._apply_kernel(X, self.relevance_)
        y = self._classify(self.m_, phi)
        return np.column_stack((1 - y, y))

    def predict(self, X):
        """Return an array of classes for each input."""
        if len(self.classes_) == 2:
            y = self.predict_proba(X)
            res = np.empty(y.shape[0], dtype=self.classes_.dtype)
            res[y[:, 1] <= 0.5] = self.classes_[0]
            res[y[:, 1] >= 0.5] = self.classes_[1]
            return res
        else:
            return self.multi_.predict(X)

4、RVR算例——boston房价数据回归预测

boston数据包含10+个特征变量X和一个目标变量y(房价)。代码只能输入多维特征X(二维矩阵),不能输入一个特征x。

对比了SVM和RVM分别使用不同核函数的回归预测效果,评价指标是R^2。

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split
from sklearn.model_selection import KFold, StratifiedKFold
from sklearn.model_selection import GridSearchCV
from sklearn.metrics import plot_confusion_matrix
from sklearn.svm import SVC
from sklearn.svm import SVR
from sklearn.datasets import load_boston
from sklearn.datasets import load_breast_cancer
plt.rcParams['font.sans-serif'] = ['SimSun'] # 指定默认字体为宋体
plt.rcParams['axes.unicode_minus'] = False # 解决保存图像是负号'-'显示为方块的问题
#回归测试——波士顿房价数据集(多个特征变量X构成一个二维矩阵,目前不支持单一的特征变量;一个目标变量y房价)
X, y = load_boston(return_X_y=True)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=1)
scaler = StandardScaler()
scaler.fit(X_train)
X_train_s = scaler.transform(X_train)
X_test_s = scaler.transform(X_test)

#支持向量机SVM效果:(不同核函数)
 #线性核函数
model = SVR(kernel="linear")
model.fit(X_train_s, y_train)
print(f"SVM-线性核函数R^2 score:{model.score(X_test_s, y_test)}")

#二次多项式核
model = SVR(kernel="poly", degree=2)
model.fit(X_train_s, y_train)
print(f"SVM-二次多项式核函数R^2 score:{model.score(X_test_s, y_test)}")

#三次多项式
model = SVR(kernel="poly", degree=3)
model.fit(X_train_s, y_train)
print(f"SVM-三次多项式核函数R^2 score:{model.score(X_test_s, y_test)}")
##(高斯)径向基核函数
model = SVR(kernel="rbf")
model.fit(X_train_s, y_train)
print(f"SVM-径向基核函数R^2 score:{model.score(X_test_s, y_test)}")
#S核
model = SVR(kernel="sigmoid")
model.fit(X_train_s, y_train)
print(f"SVM-sigmoid核函数R^2 score:{model.score(X_test_s, y_test)}")


# 相关向量机(RVM)效果:

#线性核函数
model = RVR(kernel="linear")
model.fit(X_train_s, y_train)
print(f"RVM-线性核函数R^2 score:{model.score(X_test_s, y_test)}")

#(高斯)径向基核函数
model = RVR(kernel="rbf")
model.fit(X_train_s, y_train)
print(f"RVM-径向基核函数R^2 score:{model.score(X_test_s, y_test)}")

#多项式核函数,上面基类中默认时3次多项式)
model = RVR(kernel="poly")
model.fit(X_train_s, y_train)
print(f"RVM-三次多项式核函数R^2 score:{model.score(X_test_s, y_test)}")

运行结果如下,可见RVM使用径向基核函数时0.92302表现最佳,选用RVM-rbf核函数做最终预测。

5、选定得分最高的RVR-rbf核函数作为最终预测

并加入可视化方式:实际值-预测值图&残差图。并输入新的X特征,预测得到房价

#(高斯)径向基核函数
model = RVR(kernel="rbf")
model.fit(X_train_s, y_train)
print(f"RVM-径向基核函数R^2 score:{model.score(X_test_s, y_test)}")
#结果可视化:实际值-预测值散点图,越接近y=x直线说明越好。残差图:预测值与实际值的差异
y_pred = model.predict(X_test_s)
plt.scatter(y_test, y_pred)
plt.xlabel('Actual Price')
plt.ylabel('Predicted Price')
plt.title('Actual vs Predicted Prices')
plt.show()  #实际值-预测值散点图
plt.scatter(y_pred, y_test - y_pred)
plt.xlabel('Predicted Price')
plt.ylabel('Residuals')
plt.title('Residual Plot')
plt.axhline(y=0, color='black', lw=1)  # 添加水平线表示0残差
plt.show() #残差图
#利用模型预测新的房价y值
X_new = np.array([[
    0.00632,  # 假设的CRIM值
    18.0,     # 假设的ZN值
    2.31,     # 假设的INDUS值
    0,        # 假设的CHAS值(0表示不在查尔斯河边)
    0.538,    # 假设的NOX值
    6.575,    # 假设的RM值
    65.2,     # 假设的AGE值
    4.0900,   # 假设的DIS值
    1,        # 假设的RAD值
    296.0,    # 假设的TAX值
    15.3,     # 假设的PTRATIO值
    396.90,   # 假设的B值(根据公式计算或从某处获得)
    4.98      # 假设的LSTAT值
]])
X_new_s = scaler.transform(X_new)
predicted_price = model.predict(X_new_s)
print(f"Predicted Price: {predicted_price[0]}")

实际价格与预测价格关系图如下,理论上应该接近y=x这条直线:

预测价格与残差的关系图,理论上应该接近0:

输入X特征向量二维数组,利用拟合的模型预测的价格结果如下:

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/776741.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

C++:类的成员属性,公有,私有,保护

在C中级别&#xff0c;类的成员属性分为三种访问控制&#xff1a;公有&#xff08;public&#xff09;、私有&#xff08;private&#xff09;和保护&#xff08;protected&#xff09;。它们用于控制类内部数据对类外部的可见性和访问权限。设置访问属性对于封装和信息隐藏至关…

微信小程序毕业设计-速达物流信息查询系统项目开发实战(附源码+论文)

大家好&#xff01;我是程序猿老A&#xff0c;感谢您阅读本文&#xff0c;欢迎一键三连哦。 &#x1f49e;当前专栏&#xff1a;微信小程序毕业设计 精彩专栏推荐&#x1f447;&#x1f3fb;&#x1f447;&#x1f3fb;&#x1f447;&#x1f3fb; &#x1f380; Python毕业设计…

高考假期预习指南

人不走空 &#x1f308;个人主页&#xff1a;人不走空 &#x1f496;系列专栏&#xff1a;算法专题 ⏰诗词歌赋&#xff1a;斯是陋室&#xff0c;惟吾德馨 目录 &#x1f308;个人主页&#xff1a;人不走空 &#x1f496;系列专栏&#xff1a;算法专题 ⏰诗词歌…

【C语言小知识】getchar与putchar

getchar与putchar getchar介绍putchar介绍总结 在学习c语言阶段存在着许多要求输入数值的例子&#xff0c;在输入字符时&#xff0c;如果使用scanf()和printf()根据%c转换说明读写字符&#xff0c;接下来介绍一堆字符输入/输出函数&#xff1a;getchar()和putchar()。 getchar…

圆通寄15kg30kg一般多少钱?寄大件物品怎么寄最便宜?

作为一名即将毕业的大学生&#xff0c;搬家成了我和室友们共同的难题。尤其是在寄送大件物品时&#xff0c;如何省钱、如何打包、选择哪家快递公司等问题让我们头疼不已。今天&#xff0c;我就来分享一些寄大件物品的省钱技巧以及打包方法&#xff0c;希望对大家有所帮助。 一…

HUAWEI VRRP 实验

实验要求&#xff1a;在汇聚交换机上SW1和SW2中实施VRRP以保证终端网关的高可靠性(当某一个网关设备失效时&#xff0c;其他网关设备依旧可以实现业务数据的转发。) 1.在SW1和SW2之间配置链路聚合&#xff0c;以提高带宽速度。 2.PC1 访问远端网络8.8.8.8 &#xff0c;优先走…

【数据结构】08.堆及堆的应用

一、堆的概念及结构 堆(Heap)是计算机科学中一类特殊的数据结构的统称。堆通常是一个可以被看做一棵完全二叉树的数组对象。 堆是非线性数据结构&#xff0c;相当于一维数组&#xff0c;有两个直接后继。 如果有一个关键码的集合K { k₀&#xff0c;k₁&#xff0c;k₂ &#…

课题申报书中要用的思路图(技术路线图)30张,超高清!

最近在弄课题申报书的时候&#xff0c;需要画“技术路线图”&#xff1b;和小伙伴们探讨才发现很多人居然不会画这种图&#xff0c;还有很多人在Word里面一点一点拼凑…… 我给大家收集了网上非常热门的30张“技术路线图”&#xff0c;但网上流传的都太模糊了&#xff0c;想看…

[图解]企业应用架构模式2024新译本讲解22-标识映射

1 00:00:01,080 --> 00:00:04,710 我们来看一下标识映射这个模式 2 00:00:08,030 --> 00:00:10,110 它是属于对象-关系 3 00:00:10,120 --> 00:00:11,150 行为模式 4 00:00:11,160 --> 00:00:13,890 就是说&#xff0c;在动态的时候 5 00:00:15,770 --> 00:…

【python】PyQt5可视化开发,如何设计鼠标显示的形状?

✨✨ 欢迎大家来到景天科技苑✨✨ &#x1f388;&#x1f388; 养成好习惯&#xff0c;先赞后看哦~&#x1f388;&#x1f388; &#x1f3c6; 作者简介&#xff1a;景天科技苑 &#x1f3c6;《头衔》&#xff1a;大厂架构师&#xff0c;华为云开发者社区专家博主&#xff0c;…

Python实现ABC人工蜂群优化算法优化卷积神经网络分类模型(CNN分类算法)项目实战

说明&#xff1a;这是一个机器学习实战项目&#xff08;附带数据代码文档视频讲解&#xff09;&#xff0c;如需数据代码文档视频讲解可以直接到文章最后获取。 1.项目背景 人工蜂群算法(Artificial Bee Colony, ABC)是由Karaboga于2005年提出的一种新颖的基于群智能的全局优化…

Java 面向对象编程(OOP)的四大特征

Java 面向对象编程&#xff08;OOP&#xff09;的四大特征 1、抽象2、继承3、 封装4、多态性 &#x1f496;The Begin&#x1f496;点点关注&#xff0c;收藏不迷路&#x1f496; 在Java编程中&#xff0c;面向对象编程&#xff08;OOP&#xff09;是一个核心概念。OOP的四大基…

红薯小眼睛接口分析与Python脚本实现

文章目录 1. 写在前面2. 接口分析3. 算法脚本实现 【&#x1f3e0;作者主页】&#xff1a;吴秋霖 【&#x1f4bc;作者介绍】&#xff1a;擅长爬虫与JS加密逆向分析&#xff01;Python领域优质创作者、CSDN博客专家、阿里云博客专家、华为云享专家。一路走来长期坚守并致力于Py…

【Linux】进程信号_4

文章目录 八、进程信号3. 信号的处理4. 可重入函数5. volatile 未完待续 八、进程信号 3. 信号的处理 当某个信号的处理函数被调用时&#xff0c;操作系统会自动将当前信号假如进程的信号屏蔽字当中。如果处理完该信号&#xff0c;该信号同样也会自动从信号屏蔽字中 移除。该…

内网通讯软件有哪些?

企业内部内网通讯工具是为了满足企业内部沟通和协作需求而设计的软件工具&#xff0c;其主要特点是在内网环境下进行通讯&#xff0c;以保证安全性和可控性。以下是一些常见的内网通讯软件&#xff0c;在企业内部通讯中起着重要的作用。 1. Microsoft Teams Microsoft Teams是…

【博士每天一篇文献-综述】Threats, Attacks, and Defenses in Machine Unlearning A Survey

1 介绍 年份&#xff1a;2024 作者&#xff1a;刘子耀&#xff0c;陈晨&#xff0c;南洋理工大学 期刊&#xff1a; 未发表 引用量&#xff1a;6 Liu Z, Ye H, Chen C, et al. Threats, attacks, and defenses in machine unlearning: A survey[J]. arXiv preprint arXiv:2403…

【AI】DeepStream(15):图像分割deepstream-segmentation-test源码分析

【AI】AI学习目录汇总 上一篇:【AI】DeepStream(14):图像分割deepstream-segmentation-test示例演示 1、获取GPU属性 1)获取当前使用的CUDA设备编号 int current_device = -1;cudaGetDevice(&current_device);2)

linux-5.10.110内核源码分析 - Freescale ls1012a pcie host驱动

1、dts pcie设备树 1.1、pcie设备树 pcie1: pcie3400000 {compatible "fsl,ls1012a-pcie";reg <0x00 0x03400000 0x0 0x00100000 /* controller registers */0x40 0x00000000 0x0 0x00002000>; /* configuration space */reg-names "regs", &…

STM32-I2C硬件外设

本博文建议与我上一篇I2C 通信协议​​​​​​共同理解 合成一套关于I2C软硬件体系 STM32内部集成了硬件I2C收发电路&#xff0c;可以由硬件自动执行时钟生成、起始终止条件生成、应答位收发、数据收发等功能&#xff0c;减轻CPU的负担 特点&#xff1a; 多主机功能&#x…

mac|idea导入通义灵码插件

官方教程&#xff1a;通义灵码下载安装指南_智能编码助手_AI编程_云效(Apsara Devops)-阿里云帮助中心 下载插件&#xff1a; ⇩ TONGYI Lingma - JetBrains 结果如下&#xff1a; 选择apply、ok&#xff0c;会出现弹窗&#xff0c;点击登录 可以实现&#xff1a;生成单元测…