机器学习笔记(二)回归

一、线性回归

线性回归是一种用于预测的统计方法,特别适用于连续值预测。📈线性回归通过最小化误差的平方和来寻找一个线性关系,用于预测一个变量(因变量)基于一个或多个其他变量(自变量)的值。

1.1 线性回归模型

  • 简单线性回归:仅涉及两个变量,一个是自变量,一个是因变量,公式为:

    其中 y 是因变量,x 是自变量,m 是斜率,b 是截距。

  • 多元线性回归:涉及多个自变量,形式为:

1.2 损失函数

 损失函数是机器学习中用来衡量模型预测值与真实值之间差异的一个函数。损失函数的值越小,表示模型的预测值与真实值越接近,模型的性能越好。在回归问题中,常用的损失函数是均方误差(MSE)。

均方误差 (MSE)

残差(Residuals)

线性回归中,预测值(predicted)与观测值的差值称为残差,残差的本质是模型的随机误差(Random Error),是必然存在且不可学习的参数。

图片

上图蓝色点表示观测值,红色点表示预测值。

最优拟合线

最优拟合线指的是线性回归模型中的一条直线,它是通过拟合训练数据得出的,使得这条直线与训练数据的残差(观测值与模型预测值之间的差异)之和最小化。

损失函数的优化(梯度下降法)

  • 梯度下降法:是一种用于优化函数的迭代算法。它的基本思想是使用负梯度方向来逐步更新参数,使得目标函数的值逐渐减小,直到达到局部最小值或全局最小值。梯度下降算法会迭代地更新模型的参数,使得损失函数逐渐减小,直到达到收敛条件。

  • 算法思想:先找到下降最快的方向,走到新位置再调整方向,不断重复,直到走到最低点。

  • 若学习率太大,损失函数有可能快速达到最优值,也有可能迭代很多次也达不到最优值,

    若学习率太小,则需要更多的迭代次数达到最优值。

图片

1.3 线性回归的评价标准

我们可以使用多种评价指标度量当前的模型性能,最常用的指标包括:

  • R方(R2) 也称作决定系数

  • 均方根误差(RSME)或残差标准误差(RSE)

决定系数或R方

R方指标,也称为R-Square,用于评估回归模型拟合程度。值范围在0~1之间,数值越大表示拟合效果越好,即能够更好地解释因变量的变异性。

数学表达式:

其中RSS表示残差平方和(Residual sum of Square),TSS表示总偏差平方和(Total Sum of Squares),总偏差平方和简称总平方和。

其中RSS表示残差平方和,TSS表示总偏差平方和,总偏差平方和简称总平方和。

  • 残差平方和(RSS)的含义是衡量实际观测值和模型预测值的差异

  • 总平方和(TSS)的含义是衡量样本的分散程度。

均方根误差(RSME)

均方根误差是残差方差的平方根,表示模型对数据的绝对拟合程度,即观测值与预测值的接近程度。模型的预测误差的大小,数值越小表示模型的预测能力越好。

残差标准误差(RSE)

为了使这个估计量无偏,我们需将残差平方和除以自由度(n-2),而不是模型中数据点的总数。这个术语被称为残差标准误差(RSE)

自由度

在线性回归中,自由度通常用于衡量模型中参数的数量。

具体来说,在简单线性回归中,有两个参数需要估计:斜率和截距。因此,自由度为样本数量减去参数的数量,即n−2。

在多元线性回归中,参数的数量取决于模型中的自变量数量。如果有 𝑝p 个自变量,则自由度为 n−p−1,其中 n 是样本数量

R方比RSME更好。因为均方根误差的值取决于变量的单位(即它不是一个归一化的度量),它可以随着变量单位的改变而改变。

1.4 假设检验

验证假设

线性回归是一种参数化方法,这意味着它对数据进行分析时做出了一些假设。为了成功进行回归分析,验证以下假设是至关重要的:

  • 线性:需要假设因变量和自变量之间存在线性关系。如果线性关系不能清晰呈现,可以对变量X或Y进行数据转换(对数转换、多项式转换、指数转换等)以解决问题。

  • 误差不相关性:残差项之间是相互独立的,即残差项是随机分布的,与观测变量无相关关系。如下图第一张图片的残差项是相互独立的,后一张图片不满足假设

  • 图片

  • 残差是正态分布:残差是符合均值为0或接近0的正态分布,我们基于这种先验,可以判断当前的拟合直线是否为最优直线,判断方法是累加所有数据点的残差项是否为0或接近0。如果残差项不是正态分布,表明数据存在一些异常数据点,必须仔细检查数据点以训练更好的模型。

  • 同方差性:误差是正态分布的,并具有相同的方差。这意味着对于不同的输入值,误差的方差是个固定值。如果违背了这个假设,参数估计就有可能产生偏差,导致对显著性的统计检验结果过高或者过低,从而得到错误的结论。这种情况就称为异方差性。通常,非恒定方差出现在存在异常值或极端杠杆值的情况下。

  • 非共线性:两个预测变量之间不存在线性关系,也就是说,特征之间不应该存在相关性。同样地,共线性也会导致估计偏差。

  • 存在异常值:异常值会严重影响参数估计。理想情况下,必须在使用线性回归拟合模型之前就除去异常值。

1.5 多元线性回归的一些考虑

上节假设对于多元线性回归仍然成立,多元线性回归还需考虑额外的因素。

  • 过拟合:当向模型添加越来越多的变量时,模型可能变得过于复杂,并且通常最终会记住训练集中的所有数据点,这种现象称为模型的过拟合,导致高训练准确率和非常低的测试准确率。

  • 多重过线性:多重共线性是指多元线性回归模型中,可能存在一些相关的变量,即一个特征可以是其他一个或几个特征的线性组合。如果存在多重共线性,求损失函数时矩阵会不可逆,导致求出结果会与实际不同,有所偏差。

  • 特征选择:随着更多变量的存在,从给定特征池中选择最佳的预测变量集合成为建立相关性更强且更好模型的重要任务。

线性回归的过拟合和欠拟合

  1. 偏差(Bias)

    偏差是指模型的预测值与真实值之间的差异,即模型的平均预测值与真实值之间的差距。
    • 偏差是由训练数据造成的误差。
    • 偏差是衡量模型在未来未见数据上可能的准确性指标
    • 高偏差的模型倾向于对训练数据拟合不足,即模型过于简单或欠拟合
    • 假设有足够的训练数据,复杂模型可以进行准确的预测。而过于简单的模型则很可能在预测方面表现糟糕。例如,线性模型在复杂数据集上可能具有较高的偏差,因为它们无法捕捉数据中的非线性关系。
  2. 方差(Variance)

    • 方差是指模型在不同数据集上的预测值之间的变化程度,模型对训练数据的敏感性,它量化了当输入数据发生变化时模型的反应程度。
    • 高方差的模型倾向于对训练数据过度拟合,即模型过于复杂或过拟合
    • 如果方差较高,即使在训练数据集发生微小变化时,模型也会发生剧烈变化。例如,高阶多项式模型在拟合噪声较多的数据时可能具有较高的方差,因为它们会尝试捕捉数据中的每一个细微的变化。

   偏差-方差折中

在追求模型的最佳性能时,我们需要保持偏差和方差的平衡。在机器学习领域,偏差和方差之间存在一定的反向相关性。如下图:

图片

  • 提高模型复杂度时,偏差会降低,方差会增加

  • 降低模型复杂度时,偏差会增加,方差会减小

过拟合

具有较低的偏差和较高的方差时,会导致过拟合。

模型学习到数据中的每一个模式和噪声,以至于影响模型在未来未见数据集上的性能时,就被称为过拟合。模型非常好地拟合了数据,以至于将数据中的噪声误认为是模式。

当模型具有较低的偏差和较高的方差时,它会记住数据并导致过拟合。过拟合导致模型变得特定而不是通用。这通常会导致高训练精度和非常低的测试精度。

检测到过拟合是有用的,但它并没有解决实际问题。有几种方法可以预防过拟合,如下所述:

  • 交叉验证

  • 如果训练数据太少,则添加更多相关且干净的数据

  • 如果训练数据太大,则进行一些特征选择并移除不必要的特征

  • 正则化降低模型复杂度

欠拟合

具有较高的偏差和较低的方差时,从而导致欠拟合。

当模型无法从训练数据集中学习,也无法泛化测试数据集时,就被称为欠拟合,这种问题很容易通过性能指标来检测。

当模型具有较高的偏差和较低的方差时,它最终不能泛化数据,从而导致欠拟合。它无法从数据中找到隐藏的基本模式,这通常会导致训练精度低且测试精度非常低。防止欠拟合的方法如下:

  • 提高模型复杂度

  • 增加训练数据的特征数量

  • 从数据中去除噪声

1.6 线性回归代码

#  ==1.===导入Python库代码:
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import statsmodels.api as sm
import seaborn as sns
#忽略警告
import warnings
warnings.filterwarnings('ignore')

# ==2.===加载数据

#数据导入csv

# data = pd.read_csv( "advertising.csv" )
# data.head() #使用 head() 方法查看数据集的前几行

#生成示例数据
# 随机数种子为0
np.random.seed(0)
# 长度为100的随机数组X1,数组中的元素取自于0到1之间的均匀分布。
X1 = np.random.rand(100)
X2 = np.random.rand(100)
X3 = np.random.rand(100)
# np.random.randn(100)生成了一个长度为100的随机数组,
# 其中的每个元素都是独立且服从标准正态分布的随机数。
y = 2 + 3*X1 + 4*X2 + 5*X3 + np.random.randn(100)
# 创建数据框
data = pd.DataFrame({'X1': X1, 'X2': X2, 'X3': X3, 'y': y})

# 添加常数列
# 在第一列添加了一个值为1的常数列,用于代表截距项。
X = sm.add_constant(data[['X1', 'X2', 'X3']])

# 绘制目标变量与预测变量的散点图
plt.figure(figsize=(10, 6))
plt.subplot(1, 3, 1)
plt.scatter(data['X1'], data['y'], color='blue', label='X1 vs y')
plt.xlabel('X1')
plt.ylabel('y')
plt.legend()

plt.subplot(1, 3, 2)
plt.scatter(data['X2'], data['y'], color='green', label='X2 vs y')
plt.xlabel('X2')
plt.ylabel('y')
plt.legend()

plt.subplot(1, 3, 3)
plt.scatter(data['X3'], data['y'], color='red', label='X3 vs y')
plt.xlabel('X3')
plt.ylabel('y')
plt.legend()

plt.tight_layout()
plt.show()

# 绘制所有变量的热力图
plt.figure(figsize=(10, 8))
# 绘制热力图以发现所有变量的相关性
sns.heatmap(data.corr(method='pearson'), annot=True, vmax=1, square=True, cmap="Blues")

# sns.heatmap(data.corr(), cmap = 'YlGnBu', annot = True ,annot_kws={"size": 10})
plt.title('Correlation Heatmap')
plt.show()
# 拟合线性模型
model = sm.OLS(data['y'], X).fit()

# 打印模型摘要
print(model.summary())

结果分析:

OLS(Ordinary Least Squares)回归结果中,我们通常关注以下几个主要指标:

  1. 系数(coef):表示自变量的系数估计值,即自变量对因变量的影响程度。系数的正负表示影响的方向,系数的大小表示影响的强度。

  2. 标准误差(std err):表示系数估计值的标准误差,即系数估计的不确定性程度。标准误差越小,表示系数估计越准确。

  3. t统计量(t):表示系数估计值除以标准误差得到的t值,用于检验系数是否显著不等于零。t统计量的绝对值越大,表示系数估计值越显著。

  4. P值(P>|t|):表示系数的显著性水平,即系数是否显著不等于零。通常以0.05作为显著性水平,如果P值小于0.05,则可以拒绝系数等于零的原假设,认为系数是显著的。

  5. 置信区间([0.025 0.975]):表示系数的置信区间,即在置信水平为95%下,系数真值所在的区间范围。通常用来评估系数估计的准确性和稳定性。

  6. R-squared(R方):表示模型拟合优度的度量,介于0和1之间。R方越接近1,表示模型拟合的好;越接近0,表示模型拟合的差。

  7. Adj. R-squared(调整R方):在多元回归中,由于自变量个数增加可能导致R方增加而不一定代表模型拟合的改善,因此引入了调整R方来对自变量个数进行惩罚,以更准确地评估模型拟合优度。

  8. F统计量(F-statistic):表示模型整体的显著性检验结果,用于检验模型的拟合是否显著。通常以0.05作为显著性水平,如果F统计量的P值小于0.05,则可以拒绝模型不显著的原假设,认为模型是显著的。

                     OLS Regression Results    OLS回归结果                        
=========================================================================
Dep. Variable:   因变量(响应变量)名称。 y  

R-squared:  0.804   决定系数,表示因变量的变异性可以由自变量解释的比例。越接近1表示拟合程度越好,说明模型可以解释因变量变异性的80.4%。
Model: OLS  使用的回归模型的名称。

Adj. R-squared:                  0.797调整后的决定系数(Adjusted R-squared)考虑了模型中使用的自变量数量,以防止模型过度拟合。在这个例子中,Adj. R-squared为0.797,与R-squared非常接近,表示模型的解释能力基本不受自变量数量的影响。
Method:                 Least Squares  估计参数的方法,这里是最小二乘法。

F-statistic:                     130.9  F统计量,用于检验模型的整体显著性。
Date:                Thu, 25 Apr 2024  进行回归分析的日期。

Prob (F-statistic):           8.47e-34   F统计量的p值,表示模型的整体显著性。
Time:                        08:18:07  进行回归分析的时间。

Log-Likelihood:                -132.97
No. Observations:                 100  观测样本的数量。

AIC:                             273.9
Df Residuals:                      96  残差的自由度,表示残差向量中自由变化的元素数量。

BIC:                             284.4
Df Model:                           3       模型中自变量的数量。                                  
Covariance Type:            nonrobust      协方差类型,这里是非鲁棒的(nonrobust)协方差。                           
=========================================================================

coef: 回归系数,表示自变量的系数估计值。std err: 回归系数的标准误差。

t统计量,用于检验回归系数的显著性。P>|t|: t统计量的p值,表示回归系数的显著性。所有的P值都小于0.05,表明所有的系数都是显著的

[0.025 0.975]: 回归系数的置信区间,表示置信水平为95%的置信区间。

1.588和2.865是每个系数的95%置信区间的下限和上限。可以合理地估计这些系数的取值范围在1.588到2.865之间。
                 coef    std err          t      P>|t|      [0.025      0.975]
------------------------------------------------------------------------------
const          2.2266      0.322      6.924      0.000       1.588       2.865
X1             2.4362      0.325      7.500      0.000       1.791       3.081
X2             3.5860      0.341     10.521      0.000       2.909       4.263
X3             5.2479      0.312     16.812      0.000       4.628       5.868
=========================================================================
Omnibus:                        0.024  Omnibus检验的统计量,用于检验模型的正态性。

Durbin-Watson:                   2.404  Durbin-Watson统计量,用于检验残差的自相关性。
Prob(Omnibus):                  0.988   Omnibus检验的p值。

Jarque-Bera (JB):                0.118   Jarque-Bera检验的统计量,用于检验残差的正态性。
Skew:                           0.034  残差的偏度。

Prob(JB):                        0.943  Jarque-Bera检验的p值。
Kurtosis:                       2.846   残差的峰度。

Cond. No.                         6.79  条件数,用于检验矩阵的奇异性。
=========================================================================Notes:

[1] Standard Errors assume that the covariance matrix of the errors is correctly specified.

二、多项式回归

多项式回归是一种线性回归的扩展,它通过增加预测变量的高次项来拟合非线性关系的数据。以下是多项式回归的主要知识点:

  1. 多项式模型:多项式模型是线性回归模型的一种扩展,它可以用来拟合非线性关系的数据。多项式模型的一般形式为:𝑦=𝛽0+𝛽1𝑥+𝛽2𝑥2+…+𝛽𝑛𝑥𝑛+𝜖y=β0​+β1​x+β2​x2+…+βn​xn+ϵ其中,𝑦y 是因变量,𝑥x 是自变量,𝛽0,𝛽1,…,𝛽𝑛β0​,β1​,…,βn​ 是模型的系数,𝜖ϵ 是误差项。

  2. 高次项:多项式模型中的高次项是指 𝑥x 的幂次大于1的项,例如 𝑥2,𝑥3,…,𝑥𝑛x2,x3,…,xn。通过增加高次项,可以使模型更加灵活,能够拟合更复杂的数据模式。

  3. 过拟合和欠拟合:与线性回归模型一样,多项式回归模型也面临着过拟合和欠拟合的问题。过拟合指模型过度拟合训练数据,导致在新数据上表现不佳;欠拟合指模型未能很好地拟合训练数据,导致模型预测能力不足。在实践中,需要通过调整模型复杂度来解决过拟合和欠拟合问题。

  4. 模型评估:评估多项式回归模型的常用指标包括R方值、均方误差(MSE)、均方根误差(RMSE)等。R方值用于衡量模型拟合的优度,越接近1表示模型拟合得越好;MSE和RMSE用于衡量模型预测的准确性,值越小表示预测越准确。

  5. 特征工程:在多项式回归中,特征工程也是非常重要的。除了添加高次项外,还可以进行特征选择、特征变换、特征缩放等操作,以提高模型的性能和稳定性。

  6. 交叉验证:为了评估模型的泛化能力,通常会使用交叉验证技术来验证模型在新数据上的表现。通过将数据集划分为训练集和测试集,并多次重复训练和测试过程,可以更全面地评估模型的性能。

import numpy as np
import matplotlib.pyplot as plt
from sklearn.preprocessing import PolynomialFeatures
from sklearn.linear_model import LinearRegression
from sklearn.metrics import r2_score

# 创建一些示例数据
np.random.seed(0)
X = 2 * np.random.rand(100, 1) - 1
y = 2 * X**3 - 3 * X**2 +10

# 对特征进行多项式转换
poly_features = PolynomialFeatures(degree=3, include_bias=False)
X_poly = poly_features.fit_transform(X)

# 创建并拟合多项式回归模型
poly_reg = LinearRegression()
poly_reg.fit(X_poly, y)

# 输出多项式模型的系数
print("Coefficients of polynomial model:", poly_reg.coef_)

# 计算R²
y_pred = poly_reg.predict(X_poly)
r2 = r2_score(y, y_pred)
print("R-squared score:", r2)

# 绘制原始数据和拟合的多项式回归曲线
plt.scatter(X, y, color='blue', label='Original Data')

# 生成用于绘制回归曲线的数据点
X_test = np.linspace(-1, 1, 100).reshape(-1, 1)
X_test_poly = poly_features.transform(X_test)
y_pred_plot = poly_reg.predict(X_test_poly)

# 绘制回归曲线
plt.plot(X_test, y_pred_plot, color='red', label='Polynomial Regression')

plt.xlabel('X')
plt.ylabel('y')
plt.title('Polynomial Regression')
plt.legend()
plt.show()

三、岭回归 (Ridge Regression)

定义

岭回归是一种用于处理多重共线性(multicollinearity)问题的线性回归技术。

多重共线性

共线性是指自变量之间存在高度相关性的情况,这可能导致回归系数的估计不稳定。

在共线性存在的情况下,回归模型可能对训练数据非常敏感,使得小的数据变化也会导致较大的系数变化。这种情况通常被称为多重共线性

在线性回归中,如果自变量之间存在高度相关性,就会导致回归系数的估计不稳定,可能会出现过度拟合的情况。岭回归通过在损失函数中添加一个正则化项(L2范数)来解决普通最小二乘法的过拟合问题。,可以有效地缓解这个问题。

  • L2 正则化:通过惩罚较大的权重来防止过拟合

岭回归的损失函数形式如下:

图片

其中:

yi 是观察值的目标变量。

xij 是第 i 个观察值的第 j 个自变量。

β0,β1,...,βp 是回归系数。

λ 是岭回归的超参数,用于控制正则化的强度。较大的 λ 会导致回归系数更趋向于零,从而减小过度拟合的风险。

岭回归的损失函数在普通最小二乘法(Ordinary Least Squares, OLS)的基础上添加了一个正则化项,这是解决共线性问题的关键之一。通过对回归系数的估计引入正则化项,使得模型更加稳定。这有助于处理高度相关的自变量,提高模型的泛化能力。岭回归的名称来源于它引入的正则化项的形状,形象地描述为一个岭。

岭回归通过引入正则化项,限制回归系数的增长,从而在一定程度上缓解了共线性问题。正则化项的形式为

图片

这正则化项的作用有以下几点:

控制系数的大小:正则化项对回归系数进行惩罚,使得模型更倾向于选择较小的系数。通过限制系数的增长,岭回归降低了对训练数据中噪声的过度敏感性。

防止过度拟合:共线性可能导致过度拟合,即模型过于复杂,过度适应训练数据中的噪声,而失去了对新数据的泛化能力。正则化项的引入有助于避免过度拟合,使模型更具有泛化能力。

稳定估计:通过对系数的大小进行限制,岭回归可以产生相对稳定的估计。即使在存在共线性的情况下,模型对数据的变化也更为鲁棒,系数估计更加稳定。

总体来说,通过对回归系数增加正则化项,岭回归在解决共线性问题时能够提供更为稳健和可靠的估计。这种方式把共线性带来的不稳定性降低到一个可以接受的水平,使得模型更适用于实际数据分析和预测。

优缺点和使用场景

优点:

  1. 可以处理多重共线性问题,提高模型的稳定性和泛化能力;

  2. 相对于普通最小二乘法,可以得到更可靠的系数估计

  3. 对于数据量较小、特征较多的情况,效果更为明显。

缺点:

  1. 岭回归引入的正则化项可能会导致系数估计偏向于零,从而影响模型的解释性;

  2. 需要手动调节超参数 。

使用场景:

  1. 当数据集存在多重共线性时;

  2. 当需要稳定且泛化能力强的回归模型时;

  3. 对于高维数据集,尤其是特征数量比样本数量大的情况

代码

四、LASSO 回归 (LASSO Regression)

模型名称优点缺点使用场景判断方法
线性回归(Linear Regression)解释性强,模型简单容易受到异常值影响,线性假设可能不成立关系简单,小规模数据散点图呈直线或接近直线形状,相关系数接近1或-1,线性回归模型R方较大,残差随机分布
多项式回归(Polynomial Regression)能够拟合非线性数据容易过拟合,模型复杂度高关系非线性散点图呈曲线形状,相关系数接近1或-1,多项式回归模型R方较大,残差随机分布
岭回归(Ridge Regression)能够处理多重共线性问题模型解释性差特征数量大于样本数量,数据存在多重共线性散点图呈直线或接近直线形状,相关系数接近1或-1,岭回归模型R方较大,残差随机分布,方差膨胀因子,条件数,相关矩阵,模型的拟合效果
Lasso回归(Lasso Regression)能够进行特征选择模型解释性差特征数量远大于样本数量,需要特征选择散点图呈直线或接近直线形状,相关系数接近1或-1,Lasso回归模型R方较大,残差随机分布
弹性网回归(Elastic Net Regression)结合了岭回归和Lasso回归的优点模型解释性差特征数量远大于样本数量,数据存在多重共线性,需要特征选择散点图呈直线或接近直线形状,相关系数接近1或-1,弹性网回归模型R方较大,残差随机分布

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/572120.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

02 贪吃蛇

前言 呵呵 这是不知道 在哪里看到的 别人做的一个贪吃蛇 因此 也把我 之前的 贪吃蛇 移植上来了 当然 这个不过是为了 简单的入门了解, 呵呵 然后 c版本的贪吃蛇 需要先移植成 c 版本, 然后 再根据 单片机相关 设计调整 比如 led 点阵的输出, 比如 c99 语法的一些不兼容…

Power BI数据刷新 - 网关 数据源凭据详解

众所周知,如果在Power BI云服务中设置数据源自动刷新,有两种方式供你选择, 分别是: Gateway and cloud connections(网关和云连接);Data Source Credentials(数据源凭据)&#xff1…

分类算法——模型评估(八)

1混淆矩阵 在分类任务下,预测结果与正确标记之间存在四种不同的组合,构成混淆矩阵(适用于多分类) TP True Possitive FN False Negative 2精确率(Precision)与召回率(Recall) 精…

文献速递:肺癌早期诊断---利用低剂量CT扫描的三维概率深度学习系统用于肺癌的检测与诊

Title 题目 A 3D Probabilistic Deep Learning System forDetection and Diagnosis of Lung Cancer Using Low-Dose CT Scans 利用低剂量CT扫描的三维概率深度学习系统用于肺癌的检测与诊 01文献速递介绍 肺癌既是最常见的癌症之一,也是导致癌症死亡的主要原因之…

IDEA 全局查找 ctrl + shift + F 快捷键失效

全局查找:ctrl shift F 需要关闭微软输入法简体/繁体切换,不然被占用了无效 (装了搜狗输入法的同理,找一下是不是这个快捷键冲突了 ) 另外还有 IDEA 中 重构变量名 :shift F6 需要关闭微软输入法最新版本 ( 使用以前版本的微软输入法就没…

IPv4 NAT(含Cisco配置)

IPv4 NAT(含Cisco配置) IPv4私有空间地址 类RFC 1918 内部地址范围前缀A10.0.0.0 - 10.255.255.25510.0.0.0/8B172.16.0.0 - 172.31.255.255172.16.0.0/12C192.168.0.0 - 192.168.255.255192.168.0.0/16 这些私有地址可在企业或站点内使用&#xff0c…

【项目】仿muduo库One Thread One Loop式主从Reactor模型实现高并发服务器(TcpServer板块)

【项目】仿muduo库One Thread One Loop式主从Reactor模型实现⾼并发服务器(TcpServer板块) 一、思路图二、模式关系图三、定时器的设计1、Linux本身给我们的定时器2、我们自己实现的定时器(1)代码部分(2)思…

机器学习周记(第三十五周:语义分割)2024.4.15~2024.4.21

目录 摘要 ABSTRACT 1 语义分割基本概念 1.1 数据集格式 ​编辑 1.2 语义分割评价指标 1.3 语义分割标注工具 2 转置卷积 3 FCN网络结构基本原理 摘要 本周主要学习了语义分割的基本概念及其在计算机视觉领域中的应用。了解了语义分割的几种经典网络,如全卷…

绝地求生【商城更新】WIA联名上架//专属商店下架

大家好,我是闲游盒. 本周商城将在4.24(周三)更新,商城内容更新如下: 上架物品 ▲W.I.A联名皮肤大礼包 小礼包如下: 包含3套衣服以及MINI、DBS的联名皮肤,3个头饰还挺有特色的,你喜欢…

Edge浏览器下载文件提示 “无法安全下载” 的解决方法

提示如下: 虽然我们可以通过 "保留" 进行下载,但是每次需要选择,比较麻烦 解决方法: 1、打开注册表 HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft 2、创建2个 "项" Edge\InsecureContentAllowedForUrls…

目前主流的负载均衡器

客户端负载均衡器 Ribbon 客户端根据自己的请求进行负载均衡Ribbon就属于这一类 Ribbon可以帮助你在调用这些服务时进行负载均衡。具体来说,当你通过Ribbon进行服务调用时,它可以根据配置的负载均衡策略(如轮询、随机、最少并发数等&#xff…

机器学习笔记(一)基本概念

一、浅谈机器学习 1.1 机器学习简介 机器学习目的并不是为了得到最后的运算结果,而是对计算过程进行分析,总结出一套运算的规则。只要数据量足够多,运算规则就越准确。最后可以根据这套规则对没有通过验证的数据进行预算,得到预算…

Linux编译和NXP官方系统移植

文章目录 一、Linux安装环境配置二、Linux编译流程三、单个.dtb文件编译方法1.修改顶层makefile2.编译设备树文件3.验证 四、NXP官方Linux系统移植1.将NXP官方Linux系统导入到Ubuntu系统中2.解压系统3.编译系统4.验证5.在NXP官方系统中添加自己的板子 五、 CPU 主频和网络驱动修…

数据赋能(67)——概念:数据变现

数据变现是指通过某种方式将数据转化为实际的收益或绩效。数据变现的方式多种多样,可以根据不同的应用场景和业务需求进行选择和组合。 数据变现的主要方式如下: 数据销售与租赁 组织直接出售原始数据或经过处理、整合后的数据给需要的组织或个人。组织…

视频高效批量剪辑视频,支持批量给视频进行添加新封面,让视频制作效率飙升

在当下这个视频内容爆炸的时代,无论是企业宣传、产品推广还是个人创作,高质量、高效率的视频制作都显得尤为重要。但是,传统的视频剪辑方式往往耗时耗力,效率低下,让人头疼不已。如何快速、高效地制作、编辑和推广&…

ETL工具-nifi干货系列 第十七讲 nifi Input PortOut Port 实战教程

1、端口(Port),包含输入端口(Input Port)和输出端口(Out Port ) 使用一个或多个处理组构建的数据流需要一种方式将处理组连接到其他数据流组件。 处理组和处理组之间可以通过使用端口来进行连…

OpenCV实现霍夫变换

返回:OpenCV系列文章目录(持续更新中......) 上一篇:OpenCV 如何实现边缘检测器 下一篇 :OpenCV 实现霍夫圆变换 目标 在本教程中,您将学习如何: 使用 OpenCV 函数 HoughLines()和 HoughLinesP()检测图像中的线条。…

YASKAWA安川机器人DX100轴板维修故障细节分享

随着科技的日新月异,机器人在工业生产中扮演的角色愈发重要。而作为机器人的“大脑”——电路板,其稳定运作对整个系统的可靠性至关重要。面对可能出现的YASKAWA安川机器人DX100轴板故障,如何快速、准确地诊断问题并予以解决呢?下…

数据结构之常见排序算法

目录 一、排序中的概念 二、常见排序算法--升序 1、插入排序 (1)直接插入排序 (2)希尔排序 2、选择排序 (1)单指针选择排序 (2)双指针选择排序 (3)堆…

日志集中审计系列(5)--- LogAuditor接收USG设备日志

日志集中审计系列(5)--- LogAuditor接收USG设备日志 前言拓扑图设备选型组网需求配置思路操作步骤结果验证前言 近期有读者留言:“因华为数通模拟器仅能支持USG6000V的防火墙,无法支持别的安全产品,导致很多网络安全的方案和产品功能无法模拟练习,是否有真机操作的实验或…