线性回归模型(7大模型)

线性回归模型(7大模型)

线性回归是人工智能领域中最常用的统计学方法之一。在许多不同的应用领域中,线性回归都是非常有用的,例如金融、医疗、社交网络、推荐系统等等。

在机器学习中,线性回归是最基本的模型之一,也是许多其他模型的基础。在深度学习中,线性回归模型可以用作神经网络的基础,例如单层感知器模型。

线性回归模型也有许多改进和扩展版本,例如多元线性回归、逻辑回归、岭回归、lasso回归、弹性网回归等等。这些模型可以更好地处理实际应用中的不同情况,例如多个自变量、非线性关系、高维度数据等等。

本章节主要从以下四个环节进行介绍线性回归模型,主要详细介绍7大模型。

一、什么是线性回归

二、为什么使用线性回归

三、回归技术的类型

四、如何选择正确的回归模型

一、什么是线性回归

1. 线性入门

​ 先从一个简单的问题开始:如何用一个线性函数来拟合一个二维数据集?

​ 假设我们有一个二维数据集,其中每个样本都由一个x和一个y组成。我们可以用一个线性函数 y = ax + b 来拟合这个数据集,其中a和b是待定的系数。我们的目标是找到最佳的a和b,使得这个线性函数能够尽可能地拟合这个数据集。

​ 这就是线性回归的基本思想:通过拟合一个线性函数来预测一个连续型的输出变量。这是一个非常简单的案例。线性回归在实际应用中应用非常广泛,线性回归可以用于许多不同的任务,比如预测销售额、房价、股票价格等。

2. 什么是回归分析

​ 回归分析是一种统计学方法,用于研究自变量和因变量之间的关系。它是一种建立关系模型的方法,可以帮助我们预测和解释变量之间的相互作用。回归分析通常用于预测一个或多个因变量的值,这些因变量的值是由一个或多个自变量的值所决定的。回归分析的目标是建立一个数学模型来描述因变量和自变量之间的关系。这个数学模型可以是线性或非线性的,可以包含一个或多个自变量。通过回归分析,我们可以使用已知的自变量和因变量值来计算模型参数,然后使用这些参数来预测因变量值。回归分析被广泛应用于各种领域,包括经济学、社会学、医学、环境科学和工程学等。它可以用于研究许多不同的问题,如房价预测、销售预测、股票价格预测、人口增长预测等等。

回归分析是建模和分析数据的重要工具。在这里,我们使用曲线/线来拟合这些数据点,在这种方式下,从曲线或线到数据点的距离差异最小。我会在接下来的部分详细解释这一点。

二、为什么使用线性回归

举例理解

上述已经说了,回归分析估计了两个或者多个变量之间的关系,由一个简单的例子进行下一步的加深理解:

比如说,在当前的经济条件下,你要估计一家公司的销售额增长情况。现在,你有公司最新的数据,这些数据显示出销售额增长大约是经济增长的2.5倍。那么使用回归分析,我们就可以根据当前和过去的信息来预测未来公司的销售情况。

根据上述例子我们可以得到以下信息:

  1. 我们可以将销售额的增长率定义为:销售额增长率 = 公司销售额增长 / 经济增长

  2. 销售额增长大约是经济增长的2.5倍。因此,我们可以将上述式子转化为:销售额增长率 = 2.5

现在我们可以使用历史数据来拟合这个模型,然后使用该模型来预测未来的销售额增长情况。如果我们发现公司的销售额增长率偏离了预测值,我们可以重新调整模型并进行更新。

但是需要注意的是:

回归分析是一种统计学方法,它基于历史数据和一些假设来进行预测。因此,在使用回归分析进行预测时,我们需要谨慎地考虑这些假设,以及历史数据是否足够可靠和全面。

三、回归技术的类型

在统计学和机器学习领域中,回归分析有许多不同的技术和方法。以下是我归类的7种主要类型,下面来一一介绍每种回归技术。

1. ElasticNet回归

1.1 简介

ElasticNet回归是回归分析中的一种线性模型,结合了Lasso回归和岭回归的特点。与Lasso回归一样,ElasticNet回归可以实现特征选择和模型稀疏性,即通过将某些系数缩减为0,选择最相关的特征。与岭回归一样,ElasticNet回归可以处理多重共线性问题,即在输入特征之间存在高度相关性的情况下,仍然能够对模型进行合理的拟合。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ig3SW5gO-1682478439027)(/Users/kayleigh/Library/Application Support/typora-user-images/image-20230426094334356.png)]

ElasticNet回归在建立模型时,同时考虑L1正则项和L2正则项,这两个正则项的系数可以通过调整超参数来控制。L1正则项可以实现特征选择和稀疏性,L2正则项可以处理多重共线性问题,通过结合这两个正则项,可以得到更加稳定、可靠的模型。

ElasticNet回归适用于许多实际应用中的问题,例如图像处理、基因表达数据分析等,这些问题通常具有高维度、高相关性等特点,而ElasticNet回归能够在这些复杂的场景中,同时实现特征选择和模型稳定性。

1.2 要点和优点

要点:

1.在高度相关变量的情况下,它会产生群体效应;

2.选择变量的数目没有限制;

3.它可以承受双重收缩。

优点:

Lasso和Ridge之间的实际的优点是,它允许ElasticNet继承循环状态下Ridge的一些稳定性。

1.3 ElasticNet回归案例

from sklearn.linear_model import ElasticNet
from sklearn.datasets import make_regression

# 生成随机数据集
X, y = make_regression(n_samples=100, n_features=10, noise=0.1, random_state=42)

# 创建ElasticNet回归模型
elastic_net = ElasticNet(alpha=0.1, l1_ratio=0.5, max_iter=1000)

# 模型拟合训练数据
elastic_net.fit(X, y)

# 输出模型参数
print("Coefficients:", elastic_net.coef_)
print("Intercept:", elastic_net.intercept_)
print("R-squared:", elastic_net.score(X, y))

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-WFkdkXxh-1682478439028)(/Users/kayleigh/Library/Application Support/typora-user-images/image-20230426094517723.png)]

​ 这个代码案例中,我们使用make_regression函数生成了一个包含100个样本、10个特征的随机数据集,然后创建了一个ElasticNet回归模型,并通过fit方法对模型进行训练。最后,我们输出了模型的系数、截距和R平方值。可以通过调整alphal1_ratio参数来控制L1和L2正则项的比例。

2. Lasso Regression套索回归

2.1 简介

Lasso Regression(套索回归)是一种用于回归分析的机器学习算法,它主要用于特征选择和模型正则化,可以帮助解决多重共线性和过拟合等问题。Lasso Regression通过加入L1正则化项,将一些特征的系数缩小甚至归零,从而达到特征选择的目的,同时可以避免过拟合。

它类似于岭回归,Lasso (Least Absolute Shrinkage and Selection Operator)也会惩罚回归系数的绝对值大小。此外,它能够减少变化程度并提高线性回归模型的精度。看看下面的公式:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-nXHvx8aC-1682478439029)(/Users/kayleigh/Library/Application Support/typora-user-images/image-20230426095538767.png)]

2.2 要点和优点

要点:

1.除常数项以外,这种回归的假设与最小二乘回归类似;

2.它收缩系数接近零(等于零),这确实有助于特征选择;

3.这是一个正则化方法,使用的是L1正则化;

如果预测的一组变量是高度相关的,Lasso 会选出其中一个变量并且将其它的收缩为零。

优点:它可以处理高维数据,并且能够自动减少不重要的特征,从而简化模型,提高预测准确性。另外,它的结果也比较容易解释,可以帮助我们理解哪些特征对目标变量的影响最大。

2.3 代码案例

from sklearn.linear_model import Lasso
from sklearn.datasets import load_boston
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler

# 加载数据集
boston = load_boston()

# 数据预处理
X = boston.data
y = boston.target
X = StandardScaler().fit_transform(X)

# 划分数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)

# 创建Lasso Regression模型并训练
lasso = Lasso(alpha=0.1)
lasso.fit(X_train, y_train)

# 输出模型得分
print("Training set score: {:.2f}".format(lasso.score(X_train, y_train)))
print("Test set score: {:.2f}".format(lasso.score(X_test, y_test)))

在这个示例中,我们使用了Boston房价数据集进行回归分析,首先对数据进行预处理,然后划分训练集和测试集。接着,我们使用Lasso Regression创建了一个模型,并设置了alpha参数为0.1,这个参数控制着正则化的强度。最后,我们输出了模型在训练集和测试集上的得分,来评估模型的性能。

3. Ridge Regression岭回归

3.1 简介

Ridge Regression(岭回归)是一种用于回归分析的机器学习算法,它可以帮助解决多重共线性和过拟合等问题。Ridge Regression通过加入L2正则化项,限制了特征系数的平方和,从而使得模型更加稳定。

岭回归分析是一种用于存在多重共线性(自变量高度相关)数据的技术。在多重共线性情况下,尽管最小二乘法(OLS)对每个变量很公平,但它们的差异很大,使得观测值偏移并远离真实值。岭回归通过给回归估计上增加一个偏差度,来降低标准误差。

y=a+b*x这个方程也有一个误差项。完整的方程是:


y=a+b*x+e (error term),  [error term is the value needed to correct for a prediction error between the observed and predicted value]
=> y=a+y= a+ b1x1+ b2x2+....+e, for multiple independent variables.

在一个线性方程中,预测误差可以分解为2个子分量。一个是偏差,一个是方差。预测错误可能会由这两个分量或者这两个中的任何一个造成。在这里,我们将讨论由方差所造成的有关误差。

岭回归通过收缩参数λ(lambda)解决多重共线性问题。看下面的公式

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-PJwl2F1y-1682478598783)(/Users/kayleigh/Library/Application Support/typora-user-images/image-20230426104904970.png)]

3.2 要点和优点

要点:

1.除常数项以外,这种回归的假设与最小二乘回归类似;

2.它收缩了相关系数的值,但没有达到零,这表明它没有特征选择功能

3.这是一个正则化方法,并且使用的是L2正则化。

优点:

Ridge Regression的优点在于它可以处理高维数据,并且能够有效地减少不必要的特征,从而简化模型,提高预测准确性。另外,它的结果也比较容易解释,可以帮助我们理解哪些特征对目标变量的影响最大。

3.3 代码案例

from sklearn.linear_model import Ridge
from sklearn.datasets import load_boston
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler

# 加载数据集
boston = load_boston()

# 数据预处理
X = boston.data
y = boston.target
X = StandardScaler().fit_transform(X)

# 划分数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)

# 创建Ridge Regression模型并训练
ridge = Ridge(alpha=0.1)
ridge.fit(X_train, y_train)

# 输出模型得分
print("Training set score: {:.2f}".format(ridge.score(X_train, y_train)))
print("Test set score: {:.2f}".format(ridge.score(X_test, y_test)))

4. Stepwise Regression逐步回归

4.1 简介

Stepwise Regression(逐步回归)是一种基于特征选择的回归分析方法,它可以在给定的一组特征中选择出最佳的子集,并利用这个子集来建立回归模型。Stepwise Regression可以通过逐步添加和删除变量,逐步优化模型,从而得到更加准确和有效的结果。

Stepwise Regression通常分为前向和后向两种方法,前向方法从空模型开始,逐步添加特征,而后向方法则从包含所有特征的完整模型开始,逐步删除特征。在每一步中,模型的性能都会被评估,并且选择具有最佳性能的特征进行添加或删除。

下面列出了一些最常用的逐步回归方法:

  • 标准逐步回归法做两件事情。即增加和删除每个步骤所需的预测。
  • 向前选择法从模型中最显著的预测开始,然后为每一步添加变量。
  • 向后剔除法与模型的所有预测同时开始,然后在每一步消除最小显着性的变量。

这种建模技术的目的是使用最少的预测变量数来最大化预测能力。这也是处理高维数据集的方法之一。

4.2 代码案例

from sklearn.datasets import load_boston
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression
from mlxtend.feature_selection import SequentialFeatureSelector as SFS

# 加载数据集
boston = load_boston()

# 划分数据集
X_train, X_test, y_train, y_test = train_test_split(boston.data, boston.target, test_size=0.3, random_state=0)

# 创建线性回归模型
linreg = LinearRegression()

# 创建前向Stepwise Regression模型并训练
sfs_forward = SFS(linreg,
                  k_features=5,
                  forward=True,
                  scoring='neg_mean_squared_error',
                  cv=5)
sfs_forward.fit(X_train, y_train)

# 输出最佳特征组合
print('Best feature subset:', sfs_forward.k_feature_idx_)

在这个示例中,我们使用了Boston房价数据集进行回归分析,首先划分训练集和测试集,然后创建了一个线性回归模型。接着,我们使用了mlxtend库中的SequentialFeatureSelector类来实现前向Stepwise Regression,并设置了k_features参数为5,表示最终选择5个特征。最后,我们输出了最佳特征组合的索引,可以用于重新训练模型或进行特征重要性分析。

5. Polynomial Regression多项式回归

5.1 基本介绍

Polynomial Regression(多项式回归)是一种基于线性回归的扩展方法,它可以建立非线性关系的回归模型。与线性回归不同的是,多项式回归可以通过添加多项式项(例如平方项、立方项等)来拟合非线性数据。

在多项式回归中,输入特征不仅可以是原始特征,还可以是这些特征的多项式项。例如,在一元多项式回归中,我们可以使用以下模型:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-9yLAWGDL-1682478439031)(/Users/kayleigh/Library/Application Support/typora-user-images/image-20230426105602619.png)]

在这种回归技术中,最佳拟合线不是直线。而是一个用于拟合数据点的曲线。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-2616hNMi-1682478439034)(/Users/kayleigh/Library/Application Support/typora-user-images/image-20230426105631242.png)]

5.2 重点

重点:

虽然会有一个诱导可以拟合一个高次多项式并得到较低的错误,但这可能会导致过拟合。你需要经常画出关系图来查看拟合情况,并且专注于保证拟合合理,既没有过拟合又没有欠拟合。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Wk73Cf7k-1682478439035)(/Users/kayleigh/Library/Application Support/typora-user-images/image-20230426105715671.png)]

6. Logistic Regression逻辑回归

6.1 简介

逻辑回归(Logistic Regression)是一种分类算法,用于预测二元变量的结果。它通过将数据拟合到S形的逻辑函数(也称为sigmoid函数)来进行分类。逻辑回归是一种广泛应用于机器学习和数据分析的算法,通常用于二元分类问题,如信用评分、客户离职预测、疾病诊断等。它可以将输入特征与目标变量之间的关系建模为概率,并根据阈值将数据分类为两个类别。

逻辑回归是用来计算“事件=Success”和“事件=Failure”的概率。当因变量的类型属于二元(1 / 0,真/假,是/否)变量时,我们就应该使用逻辑回归。这里,Y的值从0到1,它可以用下方程表示。


odds= p/ (1-p) = probability of event occurrence / probability of not event occurrenceln(odds) = ln(p/(1-p))logit(p) = ln(p/(1-p)) = b0+b1X1+b2X2+b3X3....+bkXk
p表述具有某个特征的概率

6.2 要点

要点:

1.它广泛的用于分类问题。

2.逻辑回归不要求自变量和因变量是线性关系。它可以处理各种类型的关系,因为它对预测的相对风险指数OR使用了一个非线性的log转换。

3.为了避免过拟合和欠拟合,我们应该包括所有重要的变量。有一个很好的方法来确保这种情况,就是使用逐步筛选方法来估计逻辑回归。

4.它需要大的样本量,因为在样本数量较少的情况下,极大似然估计的效果比普通的最小二乘法差。

5.自变量不应该相互关联的,即不具有多重共线性。然而,在分析和建模中,我们可以选择包含分类变量相互作用的影响。

6.如果因变量的值是定序变量,则称它为序逻辑回归。

7.如果因变量是多类的话,则称它为多元逻辑回归。

代码案例

from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.datasets import make_classification

# 生成示例数据集
X, y = make_classification(n_samples=1000, n_features=4, n_informative=2, n_redundant=0, random_state=42)

# 将数据集拆分为训练和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

# 创建逻辑回归模型
model = LogisticRegression()

# 在训练集上训练模型
model.fit(X_train, y_train)

# 在测试集上测试模型
accuracy = model.score(X_test, y_test)
print("Accuracy:", accuracy)

在这个代码示例中,我们首先使用Scikit-Learn的make_classification函数生成了一个示例数据集。然后,我们将数据集拆分为训练集和测试集,并创建了一个逻辑回归模型。最后,我们在训练集上训练模型,并在测试集上测试模型的准确率。

7. Linear Regression线性回归

7.1简介

线性回归(Linear Regression)是一种基本的统计学习方法,通常用于建立两个或多个变量之间的线性关系。它是通过将自变量与因变量之间的关系建模为线性方程,然后根据数据拟合出这个线性方程的系数,从而进行预测和分析的一种方法。线性回归广泛应用于金融、医疗、自然资源等多个领域,可以用于预测商品价格、销售量、股票价格等。

具体来说,线性回归通过找到一个最佳的拟合线来描述两个变量之间的关系。这个拟合线可以表示为一条直线的方程,即y = mx + b。其中,y是因变量,x是自变量,m是斜率,b是截距。斜率代表了因变量y在自变量x上的变化率,截距代表了当自变量为0时因变量的值。

线性回归的目标是通过最小化实际值和预测值之间的误差来找到最佳的拟合线。这个误差可以使用最小二乘法来计算。

用一个方程式来表示它,即Y=a+b*X+e,其中a表示截距,b表示直线的斜率,e是误差项。这个方程可以根据给定的预测变量(s)来预测目标变量的值。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-aSp3itA9-1682478439036)(/Users/kayleigh/Library/Application Support/typora-user-images/image-20230426110255631.png)]

7.2 如何获得最佳拟合线(a和b的值)?

这个问题可以使用最小二乘法轻松地完成。最小二乘法也是用于拟合回归线最常用的方法。对于观测数据,它通过最小化每个数据点到线的垂直偏差平方和来计算最佳拟合线。因为在相加时,偏差先平方,所以正值和负值没有抵消。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-cMiDw1pt-1682478439037)(/Users/kayleigh/Library/Application Support/typora-user-images/image-20230426110328635.png)]

我们可以使用R-square指标来评估模型性能。想了解这些指标的详细信息,可以阅读:模型性能指标Part 1,Part 2.

7.3 要点

要点:

1.自变量与因变量之间必须有线性关系

2.多元回归存在多重共线性,自相关性和异方差性。

3.线性回归对异常值非常敏感。它会严重影响回归线,最终影响预测值。

4.多重共线性会增加系数估计值的方差,使得在模型轻微变化下,估计非常敏感。结果就是系数估计值不稳定

5.在多个自变量的情况下,我们可以使用向前选择法,向后剔除法和逐步筛选法来选择最重要的自变量。

7.4 代码案例

from sklearn.linear_model import LinearRegression
from sklearn.model_selection import train_test_split
from sklearn.datasets import make_regression

# 生成示例数据集
X, y = make_regression(n_samples=1000, n_features=4, noise=0.1, random_state=42)

# 将数据集拆分为训练和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

# 创建线性回归模型
model = LinearRegression()

# 在训练集上训练模型
model.fit(X_train, y_train)

# 在测试集上测试模型
score = model.score(X_test, y_test)
print("Score:", score)

在这个代码示例中,我们首先使用Scikit-Learn的make_regression函数生成了一个示例数据集。然后,我们将数据集拆分为训练集和测试集,并创建了一个线性回归模型。最后,我们在训练集上训练模型,并在测试集上测试模型的准确率。

四、如何正确选择回归模型?

在多类回归模型中,基于自变量和因变量的类型,数据的维数以及数据的其它基本特征的情况下,选择最合适的技术非常重要。以下是你要选择正确的回归模型的关键因素

  1. 数据探索是构建预测模型的必然组成部分。在选择合适的模型时,比如识别变量的关系和影响时,它应该首选的一步。

  2. 比较适合于不同模型的优点,我们可以分析不同的指标参数,如统计意义的参数,R-square,Adjusted R-square,AIC,BIC以及误差项,另一个是Mallows’ Cp准则。这个主要是通过将模型与所有可能的子模型进行对比(或谨慎选择他们),检查在你的模型中可能出现的偏差。

  3. 交叉验证是评估预测模型最好额方法。在这里,将你的数据集分成两份(一份做训练和一份做验证)。使用观测值和预测值之间的一个简单均方差来衡量你的预测精度。

  4. 如果你的数据集是多个混合变量,那么你就不应该选择自动模型选择方法,因为你应该不想在同一时间把所有变量放在同一个模型中。

  5. 它也将取决于你的目的。可能会出现这样的情况,一个不太强大的模型与具有高度统计学意义的模型相比,更易于实现。

  6. 回归正则化方法(Lasso,Ridge和ElasticNet)在高维和数据集变量之间多重共线性情况下运行良好。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/16382.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

深入理解 Linux 内核

Linux 内核系列文章 Linux 内核设计与实现 深入理解 Linux 内核 Linux 设备驱动程序 Linux设备驱动开发详解 文章目录 Linux 内核系列文章前言一、内存寻址1、内存地址2、硬件中的分段(1)段选择符 3、Linux 中的分段(1)Linux GDT&…

IPsec中IKE与ISAKMP过程分析(快速模式-消息1)

IPsec中IKE与ISAKMP过程分析(主模式-消息1)_搞搞搞高傲的博客-CSDN博客 IPsec中IKE与ISAKMP过程分析(主模式-消息2)_搞搞搞高傲的博客-CSDN博客 IPsec中IKE与ISAKMP过程分析(主模式-消息3)_搞搞搞高傲的博客…

九款顶级AI工具推荐

ChatGPT OpenAI开发的最强对话系统 地址:chat.openai.com ChatGPT能够在同一个会话期间内回答上下文相关的后续问题。其在短时间内引爆全球的原因在于,在网友们晒出的截图中,ChatGPT不仅能流畅地与用户对话,甚至能写诗、撰文、编…

【远程工具】- Tabby 下载、安装、使用、配置【ssh/Serial】-免安装、解压即用

目录 一、Tabby 概述 二、Tabby 下载、安装 三、Tabby 的使用  👉3.1 使用SSH协议连接Linux开发主机  👉3.2 使用Serial(串口)协议连接开发板 一、Tabby 概述 在远程终端工具中,secureCrt 和 XShell 是两款比较有名的远程工具,但…

尚融宝26-投标

目录 一、需求 (一)投资人投标 (二)流程 二、标的详情 (一)需求 (二)后端 (三)前端 三、计算收益 (一)四种还款方式 &#…

windows10系统如何实现telnet内网穿透

在windows10系统环境中,我们常用的内网穿透方案是远程桌面内网穿透技术方案,存在的弊端是它属于视窗类操作工具。网上很多教人开启windows10的telnet服务的帖子,凡是通过系统设置进入启用或关闭windows应用后勾选telnet客户端这种方式&#x…

Codeforces Round 865 (Div. 2)

6 problems. ABC过, DE没想出来, F没看. https://codeforces.com/contest/1816 A. Ian Visits Mary 分析 - AC 每次跳跃,横纵互质。 限于数据量,不能枚举。 1与任何数互质。考虑从(0,0)跳到(1,y),这一步一定合法;再从(1,y)跳到…

《Netty》从零开始学netty源码(四十七)之PooledByteBuf的方法

setBytes() 从channel中读取数据并写到PooledByteBuf中,分配缓存的过程与getBytes一样,只是duplicate为false。 capacity() 动态更新容量,根据新传入的容量值更改length。 如果新容量值与旧值相同则无需扩容如果为非池化内存则根据新容量值…

制造策略 ETO、MTO、ATO、MTS

ETO 按交货周期跨度从长到短来讲,首先就是 ETO,Engineer To Order – 面向订单设计、定制生产或特殊生产。 就是客户给的订单,你要生产的话,你之前的原产品改动很大,或者基本上用不上,要完全按照客户的要求…

从0搭建Vue3组件库(十):如何搭建一个 Cli 脚手架

本篇文章将实现一个名为create-easyest脚手架的开发,只需一个命令npm init easyest就可以将整个组件库开发框架拉到本地。 创建 Cli 包 首先,我们在 packages 目录下新建 cli 目录,同执行pnpm init进行初始化,然后将包名改为create-easyest 这里需要知道的是当我们执行npm in…

细讲shell中的循环语句--for语句

目录 一:何为循环 1.循环概述 2.使用循环的好处 二:for循环语句 1.for语句的用法 ​2. 语法结构 (1)一般格式 (2)类C语言格式 (3)死循环 3.事例 ​4.常用转义符 5.制作九九乘法表 三&…

利用Ad Hoc传感器网络上的局部信息组织全球坐标系(Matlab代码实现)

目录 💥1 概述 📚2 运行结果 🎉3 参考文献 👨‍💻4 Matlab代码 💥1 概述 知道通信网络中节点的地理位置通常是有用的,但在每个节点上添加GPS接收器或其他复杂的传感器可能会很昂贵。 本文…

English Learning - L3 综合练习 1 VOA-Color 2023.04.26 周三

English Learning - L3 综合练习 1 VOA-Color 2023.04.26 周三 主题整体听一遍精听句子 1扩展 way of doing | way to do sth 句子 2扩展 Expression扩展 base 句子 3句子 4扩展 red-hot 句子 5句子 6扩展 fiery 句子 7句子 8句子 9句子 10句子 11扩展 born 句子 12句子 13句子…

平均10870元!2023一季度居民可支配收入公布(文末附最新招聘岗位)

今天是五一假期的第一天,暂别职场的打工人已经开始扎入人从众中放肆玩乐了,小编已经流下了羡慕的泪水。不过,今年的五一除了人流量上暴涨之外,出行成本也没被少吐槽,机票咱就不说了,酒店民宿的涨幅简直到了…

[AION]我眼中的《永恒之塔私服》

当我第一次看到《永恒之塔私服》我被它那华丽的画面吸引了。      三维做的很逼真,他的三维技术,华丽的三维景象,从maya设计者专业的角度上说,他是一部做工完美的游戏,不管是他的背景还是他的人物。都比以前很多游…

ROS导航包Navigation中的 Movebase节点路径规划相关流程梳理

本文主要介绍ROS导航包Navigation中的 Movebase节点中的路径规划的相关流程,并对其进行梳理概括,同时本文也是《ROS局部路径规划器插件teb_local_planner规划流程概括总结》部分的前述文章。 1、接收到目标点信息goal 在接收到目标点goal之后&#xff0c…

《站在巨人的肩膀上学习Java》

Java从诞生距今已经有28年了,在这段时间里,随着Java版本的不断迭代,Java新特性的不断出现,使得Java被使用的越来越广泛。在工程界Java语言一直是大家最喜欢的语言之一,Java一直排行在编程语言热门程度的前3名。 可想而…

基于rke部署的k8s集群如何配置kube-proxy工作在ipvs模式

kube-proxy默认工作在iptables模式下,在集群配置文件cluster.yml中添加如下配置项即可开启ipvs模式。然后执行 rke up 命令使配置生效。

开源Stylegan人脸生成预训练模型

最近在研究Stylegan对抗式图像生成网络,使用了网络的一些预训练模型生成相应的图像,感觉非常有趣。下面开源一些我找到了预训练模型和代码,供大家一起玩。 Stylegan2官方给出的是TensorFlow版本的,费了半天劲找出了pytorch版本 这…

SpringAOP

SpringAOP 一、AOP1. AOP简介1.1 AOP简介和作用1.2 AOP中的核心概念 2. AOP入门案例【重点】2.1 AOP入门案例思路分析2.2 AOP入门案例实现【第一步】导入aop相关坐标【第二步】定义dao接口与实现类【第三步】定义通知类,制作通知方法【第四步】定义切入点表达式、配…