【AI底层逻辑】——“数学华尔兹”之一元线性回归

一元线性回归模型想必大家都耳熟能详,这里不再赘述。但在使用python中机器学习包时一定见过类似模型评价参数的输出,这一章我们就讲一讲回归分析里一些模型评价概念!

一、方差分析ANOVA

方差分析是一种用于确定线性回归模型中不同变量对目标变量解释程度的统计技术。方差分
通过比较模型中不同的变量的平均方差,来确定哪些变量对目标变量的解释程度更高。如下是标准的ANOVA表格:

Source为计算方差的三个来源。regressor回归、residuals残差、total总离。
df代表自由度 (degrees of freedom);自由度是指在计算统计量时可以随意变化的独立数据点
的数量。总离差自由度 DFT、回归自由度 DFR、残差自由度 DFE。
SS代表平方和 (Sum of Squares);平方和通常用于描述数据的变异程度,即它们偏离平均值
的程度。三个平方和SSR、SSE、SST如下。
MS代表均方和 (Mean Sum of Squares);在统计学中,均方和是一种平均值的度量,其计算
方法是将平方和除以自由度。
F代表 F-test统计量。F检验是一种基于方差比较的统计检验方法,用于确定两个或多个样
本之间是否存在显著性差异。

Significance代表显著度:F-test的p值。

1、平方和:SST、SSE、SSR

总离差平方和 (Sum of Squares for Total, SST),也称 TSS (total sum of squares)。SST描述所有实际值与总体均值之间差异的平方和,用来评整个数据集的离散程度

\text{SST}=\sum_{i=1}^n\Bigl(y^{(i)}-\overline{y}\Bigr)^2
残差平方和 (Sum of Squares for Error, SSE),也称 RSS (residual sum of squares)。SSE反映了因变量中无法通过自变量预测的部分,也称为误差项实际值与预测值之间差异的平方和),可以用于检查回归模型的拟合程度和判断是否存在异常值。在回归分析中,常通过最小化残差平方和来确定最佳的回归系数

\mathrm{SSE}=\sum_{i=1}^n\Bigl(y^{(i)}-\hat{y}^{(i)}\Bigr)^2
回归平方和 (Sum of Squares for Regression, SSR),也称 ESS (explained sum of squares)。SSR反映了回归模型所解释的数据变异量的大小(预测值与总体均值之间差异的平方和),用于评估回归模型的拟合程度以及自变量对因变量的影响程度

\mathrm{SSR}=\sum_{i=1}^n\left(\hat{y}^{(i)}-\overline{y}\right)^2

三者关系SST=SSR+SSE线性回归方差分析的本质是将SST分解为SSE和SSR!可发现这种关系可看作三角形勾股定理

\begin{aligned} &\text{SST}=\sum_{i=1}^{n}\left(y^{(i)}-\overline{y}\right)^{2}=\left\|y-\overline{y}\right\|_{2}^{2} \\ &\text{SSR}=\sum_{i=1}^{n}\left({\hat{y}}^{(i)}-{\overline{y}}\right)^{2}=\left\|{\hat{y}}-{\overline{y}}\right\|_{2}^{2} \\ &\text{SSE}=\sum_{i=1}^{n}\left(y^{(i)}-\hat{y}^{(i)}\right)^{2}=\left\|y-\hat{y}\right\|_{2}^{2} \\ &\underbrace{\left\|\boldsymbol{y}-\overline{\boldsymbol{y}}\boldsymbol{I}\right\|_{2}^{2}}_{\mathrm{ssr}}=\underbrace{\left\|\hat{\boldsymbol{y}}-\overline{\boldsymbol{y}}\boldsymbol{I}\right\|_{2}^{2}}_{\mathrm{ssR}}+\underbrace{\left\|\boldsymbol{y}-\hat{\boldsymbol{y}}\right\|_{2}^{2}}_{\mathrm{ssE}} \end{aligned}

即:\left(\sqrt{\mathrm{SST}}\right)^2=\left(\sqrt{\mathrm{SSR}}\right)^2+\left(\sqrt{\mathrm{SSE}}\right)^2先理解下图后续会进一步分析!

2、自由度DF

自由度(degree of freedom)上面的ANOVA表格里的第2列:总离差自由度 DFT(degree of freedom total)、回归自由度 DFR(degree of freedom regression)、残差自由度 DFE(degree of freedom error)三者关系为:

\mathrm{DFT}=n-1=\mathrm{DFR}+\mathrm{DFE}=\underbrace{\left(k-1\right)}_{\mathrm{DFR}}+\underbrace{\left(n-k\right)}_{\mathrm{DFE}}=\left(D\right)+\underbrace{\left(n-D-1\right)}_{\mathrm{DFR}}

n代表参与回归的非 NaN样本数量。k代表回归模型参数数量,包括截距项。D代表变量的数量(解释变量个数),因此 k = D + 1 (+1 代表常数项参数)。举个例子,对于一元线性回归,D = 1,k = 2。如果参与建模的样本数据为 n = 252,几个自由度分别为

\left.\left\{\begin{aligned}\mathrm{DFT}&=252-1=251\\k&=D+1=2\\\mathrm{DFR}&=k-1=D=1\\\mathrm{DFE}&=n-k=n-D-1=252-2=250\end{aligned}\right.\right.

3、MST、MSR、MSE、RMSE

①平均总离差 (mean square total, MST) 的定义如下,实际上就是样本因变量y的方差

\mathrm{MST}=\mathrm{var}\big(Y\big)=\frac{\sum_{i=1}^{n}\big(y_{i}-\overline{y}\big)^{2}}{n-1}=\frac{\mathrm{SST}}{\mathrm{DFT}}

②平均回归平方 (mean square regression, MSR) 为:

\mathrm{MSR}={\frac{SSR}{DFR}}={\frac{SSR}{k-1}}={\frac{SSR}{D}}

③残差平均值 (mean squared error, MSE) 为:

\mathrm{MSE}={\frac{SSE}{DFE}}={\frac{SSE}{n-k}}={\frac{SSE}{n-D-1}}

均方根残差 (Root mean square error, RMSE) 为 MSE的平方根:

\mathrm{RMSE}=\sqrt{\mathrm{MSE}}=\sqrt{\frac{SSE}{DFE}}=\sqrt{\frac{SSE}{n-p}}=\sqrt{\frac{SSE}{n-D-1}}

二、拟合优度

在回归模型创建之后,很自然就要考虑这个模型是否能够很好地解释数据,即考察这条回归线对观
察值的拟合程度,也就是所谓的拟合优度 (goodness of fit)。形象地,上面说到三个平方和之间类似勾股定理的关系时的四面体,θ越小,其对边(误差)越小,拟合优度越好

1、决定系数

决定系数 (coefficient of determination,R2) 是定量化反映拟合优度的统计量R2越接近1,拟合优度越好;R2越接近0,拟合优度越差。

从几何角度来看,R2是图 12中 θ余弦值 cosθ的平方:

R^{2}=\cos(\theta)^{2}

利用上面的勾股定理三角形可得:

R^{2}=\frac{\mathrm{SSR}}{\mathrm{SST}}=1-\frac{\mathrm{SSE}}{\mathrm{SST}}

特别地,对于一元线性回归决定系数是因变量与自变量的相关系数的平方,与模型斜率项系数 b1也有直接关系。

R^{2}=\rho_{X,Y}^{2}=\left(b_{1}\frac{\sigma_{X}}{\sigma_{Y}}\right)^{2}

其中b_{1}=\rho_{x,x}\frac{\sigma_{y}}{\sigma_{x}}

因此,线性相关系数 ρ和决定系数 R2都是衡量变量之间线性关系强弱的重要指标,可以帮助我们理解自变量对因变量的解释能力,评估模型的拟合优度,以选择最佳的回归模型。

2、修正决定系数

但仅仅使用决定系数 R2是不够的。对于多元线性模型,不断增加解释变量个数D时,R2将不断增大。我们可以利用修正决定系数 (adjusted R squared)。

\begin{aligned} R_{\mathrm{adj}}^{2}& =1-\frac{\mathrm{MSE}}{\mathrm{MST}} \\ &=1-\frac{\mathrm{SSE}/(n-k)}{\mathrm{SST}/(n-1)} \\ &=1-\biggl(\frac{n-1}{n-k}\biggr)\frac{\mathrm{SSE}}{\mathrm{SST}} \\ &=1-\biggl(\frac{n-1}{n-k}\biggr)\biggl(1-R^{2}\biggr) \\ &=1-\biggl(\frac{n-1}{n-D-1}\biggr)\frac{\mathrm{SSE}}{\mathrm{SST}} \end{aligned}

当模型中自变量的数量D增加时,它能够惩罚过拟合,避免了当自变量数量增加时决定系数的人为提高。过拟合通常发生在模型复杂度过高或者训练数据太少的情况下,为了避免过拟合,可以采取以下方法:增加训练数据量、降低模型复杂度、采用正则化(regularization) 技术等

三、F检验:模型参数不全为0

在线性回归中,F检验用于检验线性回归模型参数是否显著,它通过比较回归平方和和残差平方和的大小来判断模型是否具有显著的解释能力。

1、统计量

F检验的统计量如下:

\begin{aligned}F&=\frac{\mathrm{MSR}}{\mathrm{MSE}}=\frac{\frac{\mathrm{SSR}}{k-1}}{\frac{\mathrm{SSE}}{n-k}}=\frac{\mathrm{SSR}\left(n-k\right)}{\mathrm{SSE}\left(k-1\right)}\\&=\frac{\frac{\mathrm{SSR}}{D}}{\frac{\mathrm{SSE}}{n-D-1}}=\frac{\mathrm{SSR}\cdot\left(n-D-1\right)}{\mathrm{SSE}\cdot\left(D\right)}\rightarrow F\left(k-1,n-k\right)\end{aligned}

2、假设检验

假设检验 (hypothesis testing) 是统计学中常用的一种方法,用于根据样本数据推断总体参数是否符合某种假设。
假设检验通常包括两个假设:原假设和备择假设。
原假设 (null hypothesis) 是指在实验或调查中假设成立的一个假设,通常认为其成立。
备择假设 (alternative hypothesis) 是指当原假设不成立时,我们希望成立的另一个假设。

通过收集样本数据,并根据统计学原理计算出样本统计量的概率分布,我们可以计算出拒绝原假设
的概率。如果这个概率小于预设的显著性水平 (比如 0.05),就可以拒绝原假设,认为备择假设成立。反之,如果这个概率大于预设的显著性水平,就不能拒绝原假设。

F检验是单尾检验,原假设H0、备择假设H1分别为:

\begin{aligned}H_0:&b_1=b_2=\cdots=b_D=0\\H_1:&b_j\neq0\text{ for at least one}j\end{aligned}

具体来说,F检验的零假设(原假设)是模型的所有回归系数都等于零,即自变量对因变量没有显著的影响。
如果 F检验的 p值小于设定的显著性水平,就可以拒绝零假设,认为模型是显著的,即自变量对因变量有显著的影响。

3、临界值

临界值 Fα可根据两个自由度 (k − 1和 n − k) 以及显著性水平α查表获得。1 − α 为置信度或置信水平,通常取 α = 0.05或 α = 0.01。这表明,当作出接受原假设的决定时,其正确的可能性为 95%或 99%。

根据统计量公式计算得到的 F值和临界值 Fα进行比较,如果下式成立

F>F_{1-\alpha}\left(k-1,n-k\right)

则在该置信水平上拒绝零假设H0,不认为自变量系数同时具备非显著性,即所有系数不太可能同时为零。反之,接受零假设H0,自变量系数同时具有非显著性,即所有系数很可能同时为零。

举例说明

若给定条件 α = 0.01,F1–α(1, 250) = 6.7373。计算统计量F = 549.7 > 6.7373,表明可以显著地拒绝H0。也可用p值,如果 p值小于 α,则可以拒绝零假设H0

p\text{-value}=\mathsf{P}\Big(F<F_{\alpha}\left(k-1,n-k\right)\Big)

四、t检验:某个回归系数是否为0

线性回归中,t检验主要用于检验线性回归模型中某个特定自变量的系数是否显著而不能判断模型整体是否显著。

1、统计量

b1的 t检验统计量

t_{b1}=\frac{\hat{b}_{1}-b_{1,0}}{\mathrm{SE}\Big(\hat{b}_{1}\Big)}

其中,b1ˆ为最小二乘法 OLS线性回归估算得到的系数, SE 为其标准误

\mathrm{SE}\left(\hat{b_1}\right)=\sqrt{\frac{\mathrm{MSE}}{\sum_{i=1}^n\left(x^{(i)}-\overline{x}\right)^2}}=\sqrt{\frac{\sum_{i=1}^n\left(e^{(i)}\right)^2}{\sum_{i=1}^n\left(x^{(i)}-\overline{x}\right)^2}}

再其中,MSE为前面的残差平均值 (mean squared error),n是样本数据的数量 (除NaN)。标准误越大,回归系数的估计值越不可靠。

2、假设检验

对于一元线性回归t检验原假设和备择假设分别为:

\begin{cases}H_0:b_1=b_{1,0}\\H_1:b_1\neq b_{1,0}\end{cases}

零假设是特定回归系数等于零,即自变量对因变量没有显著的影响。如果 t检验的 p值小于设定的显著性水平,就可以拒绝零假设,认为该自变量的系数是显著不为零的,即自变量对因变量有显著的影响。

3、临界值

如果下式成立,接受零假设H0,否则,则拒绝零假设H0。(下面的T即b1统计量t

-t_{1-\alpha/2,n-2}<T<t_{1-\alpha/2,n-2}

特别地,如果原假设和备择假设为:

\begin{cases}H_0:b_1=0\\H_1:b_1\neq0\end{cases}

如果临界不等式成立,接受零假设H0,即回归系数不具有显著统计性;白话说,也就是 b1 = 0,意味着自变量和因变量不存在线性关系。否则,则拒绝零假设H0,即回归系数具有显著统计性。

4、截距项系数

对于一元线性回归,对截距项系数 b0的假设检验程序和上述的斜率项系数b1类似。b0的 t检验统计量:

t_{b0}=\frac{\hat{b}_{0}-b_{0,0}}{\mathrm{SE}\Big(\hat{b}_{0}\Big)}

与上面的定义类似,其中:

\mathrm{SE}\left(\hat{b_0}\right)=\sqrt{\frac{\sum_{i=1}^n\left(\varepsilon^{(i)}\right)^2}{n-2}\left[\frac1n+\frac{\overline{x}^2}{\sum_{i=1}^n\left(x^{(i)}-\overline{x}\right)^2}\right]}

举例说明:

t检验统计值 T服从自由度为 n – 2的 t 分布。本节采用的 t检验是双尾检测

在统计学中,双尾假设检验是指在假设检验过程中,假设被拒绝的区域位于一个统计量分布的两个尾端,
即研究者对于一个参数或者统计量是否等于某一特定值,不确定其比该值大或小,
而是存在两种可能性,因此需要在两个尾端进行检验。

比如给定显著性水平 α = 0.05 和自由度 n – 2 = 252 - 2 = 250,可以查表得到 t值如下,Python中可以用 stats.t.ppf(1 - alpha/2, DFE) 计算两值

t_{1-\alpha/2,n-2}=t_{0.975,250}=1.969498

由于t-分布对称,所以可得:

t_{\alpha/2,n-2}=t_{0.025,250}=-1.969498

假如计算的统计量为tb1 = 23.446,大于1.969498,则表明参数 b1的 t检验在 α = 0.05 水平下是显著的,也就是可以显著地拒绝 H0: b1 = 0,从而接受H1:b1 ≠ 0回归系数的标准误差越大,回归系数的估计值越不可靠。

因此,斜率项系数 b1的 1 – α 置信区间如下,含义是真实 b1在以上区间的概率为 1 – α:

\hat{b}_1\pm t_{1-\alpha/2,n-2}\cdot\mathrm{SE}\!\left(\hat{b}_1\right)

同理,截距项系数 b0的 1 – α 置信区间为,含义是真实 b0在以上区间的概率为 1 – α:

\hat{b_0}\pm t_{1-\alpha/2,n-2}\cdot\mathrm{SE}\!\left(\hat{b_0}\right)

五、置信区间、预测区间

大家都应该见过类似下图的图像。左图带宽代表一元线性回归预测值的置信区间,右图是预测值的预测区间

置信区间(因变量均值的区间)

在回归分析中,置信区间用于评估回归模型的预测能力(精度)。通常,预测值的置信区间越窄,说明模型预测的精度越高。

预测值\hat{y}^{(i)}的 1 – α置信区间:

\hat{y}^{(i)}\pm t_{1-\alpha/2,n-2}\cdot\sqrt{\mathrm{MSE}}\cdot\sqrt{\frac1n+\frac{\left(x^{(i)}-\overline{x}\right)^2}{\sum_{k=1}^n\left(x^{(k)}-\overline{x}\right)^2}}

置信区间的宽度

2\times\left\{t_{1-\alpha/2,n-2}\cdot\sqrt{\mathrm{MSE}}\cdot\sqrt{\frac1n+\frac{\left(x^{(i)}-\overline{x}\right)^2}{\sum_{k=1}^n\left(x^{(k)}-\overline{x}\right)^2}}\right\}

随着\left|x^{(i)}-\overline{x}\right|不断增大,置信区间宽度不断增大。当x^{(i)}=\overline{x}时,置信区间宽度最窄。随着 MSE
(mean square error) 减小,置信区间宽度减小。

预测区间(因变量特定值的区间)

指回归模型估计时,对于自变量给定的某个值 xp,求出因变量 yp的个别值的估计区间:

\hat{y}_p\pm t_{1-\alpha/2,n-2}\cdot\sqrt{\mathrm{MSE}}\cdot\sqrt{1+\frac1n+\frac{\left(x_p-\overline{x}\right)^2}{\sum_{k=1}^n\left(x^{(k)}-\overline{x}\right)^2}}

与预测值的置信区间不同,预测区间同时考虑了预测的误差未来观测值的随机性,包含两个方面的误差:回归方程中的估计误差和对未来观测值的随机误差,也因此更宽

六、似然函数、信息准则

1、对数似然函数:用于MLE

似然函数是一种关于统计模型中的参数的函数,用于最大似然估计MLE,表示模型参数中的似然性。在 OLS(普通最小二乘)线性回归中,假设残差\varepsilon^{(i)}=y^{(i)}-\hat{y}^{(i)}服从正态分布 N(0, σ2),因此:

\Pr\Big(\varepsilon^{(i)}\Big)=\frac{1}{\sigma\sqrt{2\pi}}\exp\Bigg(-\frac{\Big(y^{(i)}-\hat{y}^{(i)}\Big)^{2}}{2\sigma^{2}}\Bigg)

似然函数为:

L=\prod_{i=1}^n\mathrm{P}\left(\varepsilon^{(i)}\right)=\prod_{i=1}^n\left\{\frac1{\sigma\sqrt{2\pi}}\exp\left(-\frac{\left(y^{(i)}-\hat{y}^{(i)}\right)^2}{2\sigma^2}\right)\right\}

我们常用对数似然函数 ln(L):

\ln\left(L\right)=\ln\left(\prod_{i=1}^{n}\mathrm{P}\left(\varepsilon^{\left(i\right)}\right)\right)=-\frac{n}{2}\cdot\ln\left(2\pi\sigma^{2}\right)-\frac{\mathrm{SSE}}{2\sigma^{2}}

其中,在最大似然估计MLE中 σ为:

\sigma^2=\frac{\mathrm{SSE}}{n}

则有:

\ln\left(L\right)=-\frac n2\cdot\ln\left(2\pi\sigma^2\right)-\frac n2

2、信息准则:模型选择

AIC和 BIC是线性回归模型选择中常用的信息准则,用于在多个模型中选择最优模型

AIC为赤池信息量准则 (AIC)

\mathrm{AIC}=2k-2\ln\left(L\right)

其中,k = D + 1;L是似然函数。AIC鼓励数据拟合的优良性;但是,尽量避免出现过度拟合,其中 2k项为惩罚项 (penalty)。

②贝叶斯信息准则(BIC) ,也称施瓦茨信息准则(SIC)

\mathrm{BIC=}k\cdot\ln(n){-}2\ln(L)

其中,n为样本数据数量。BIC的惩罚项kln(n)比 AIC大

注意:在使用 AIC 和 BIC 进行模型选择时,应该选择具有最小 AIC 或 BIC 值的模型。这意味着,较小的AIC或 BIC值表示更好的模型拟合和更小的模型复杂度。但并不保证选择的模型就是最优模型。在实际应用中,应该将 AIC和 BIC作为指导,结合领域知识和经验来选择最优模型。同时,还需要对模型的假设和限制进行检验。

七、其他

1、残差分析:假设服从正态

残差分析假设残差服从均值为0正态分布!通过残差所提供的信息,对回归模型进行评估,分析数据是否存在可能的干扰。残差分析的基本思想是,如果回归模型能够很好地拟合数据,那么残差应该是随机分布的,没有明显的模式或趋势。残差分析可以提供关于模型拟合优度的信息

步骤:

1、绘制残差图。残差图是观测值的残差与预测值之间的散点图。
如果残差呈现出随机分布、没有明显的模式或趋势,那么模型可能具有较好的拟合优度。
2、检查残差分布。通过绘制残差直方图或核密度图来检查残差分布是否呈现出正态分布或近似正态分布。
如果残差分布不是正态分布,那么可能需要采取转换或其他措施来改善模型的拟合。
3、检查残差对自变量的函数形式。通过绘制残差与自变量之间的散点图或回归曲线,来检查残差是否
随自变量的变化而呈现出系统性变化。
如果存在这种关系,那么可能需要考虑增加自变量、采取变量转换等方法来改善模型的拟合。

为了检测残差的正态性,可以利用Omnibus正态检验,Omnibus正态检验利用残差的偏度 S和峰度 K,检验残差分布为正态分布的原假设。Omnibus正态检验的统计值为偏度平方、超值峰度平方两者之和。Omnibus正态检验利用 χ2检验 (Chi-squared test)。

2、自相关检测:Durbin-Watson

Durbin-Watson用于检验序列的自相关。在线性回归中,自相关 (autocorrelation) 用来分析模型中的残差与其在时间上的延迟版本之间的相关性。当模型中存在自相关时,它可能表明模型中遗漏了某些重要的变量,或者模型中的时间序列数据未被正确处理
自相关可以通过检查残差图来诊断。如果残差图表现出明显的模式,例如残差值之间存在周期性关
系或呈现出聚集在某个区域的情况,那么就可能存在自相关。在这种情况下,可以通过引入更多的自变量或使用时间序列分析方法来修正模型。

Durbin-Watson检测的统计量为:

DW=\frac{\sum_{i=2}^n\left(\left(y^{(i)}-\hat{y}^{(i)}\right)-\left(y^{(i-1)}-\hat{y}^{(i-1)}\right)\right)^2}{\sum_{i=1}^n\left(y^{(i)}-\hat{y}^{(i)}\right)^2}

上式本质上检测残差序列与残差的滞后一期序列之间的差异大小。DW值的取值区间为 0 ~ 4。当DW值很小时 (DW < 1),表明序列可能存在正自相关。当DW值很大时 (DW > 3) 表明序列可能存在负自相关。当DW值在 2附近时 (1.5 < DW < 2.5),表明序列无自相关。其余的取值区间表明无法确定序列是否存在自相关。该知识点更多详情

3、条件数:多重共线性

在线性回归中,条件数 (condition number) 常用来检验设计矩阵X_{k\times k}是否存在多重共线性,多重共线性是指在多元回归模型中,独立变量之间存在高度相关或线性关系的情况。多重共线性会导致回归系数的估计不稳定,使得模型的解释能力降低,甚至导致模型的预测精度下降讲到多元回归分析时,条件数的作用更明显。

X^\mathrm{T}X进行特征值分解,得到最大特征值 λmax和最小特征值 λmin。条件数的定义为两者的比值的平方根

\text{condition number}=\sqrt{\frac{\lambda_{\max}}{\lambda_{\min}}}

八、总结

这些概念是线性回归分析中非常重要的指标,可以帮助我们评估模型的拟合程度、系数显著性、预测能力和多重共线性等问题。这些概念涉及的公式可能较为复杂,但是不用完全记忆,理解它的目的是什么,大致用哪些量计算就可!

方差分析可以评估模型的整体拟合优度,其中的 F 检验可以用来线性模型参数整体显著性,t 检验可以评估单个系数的显著性。

拟合优度指模型能够解释数据变异的比例,常用 R2 来度量。

AIC 和 BIC 用于模型选择,可以在模型拟合度相似的情况下,选出最简单和最有解释力的模型。

自相关指误差项之间的相关性,可以使用 Durbin-Watson检验进行检测。

条件数是用于评估多重共线性的指标,如果条件数过大,可能存在严重的多重共线性问题。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/244074.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

Java版工程行业管理系统源码-专业的工程管理软件-提供一站式服务

鸿鹄工程项目管理系统 Spring CloudSpring BootMybatisVueElementUI前后端分离构建工程项目管理系统 项目背景 随着公司的快速发展&#xff0c;企业人员和经营规模不断壮大。为了提高工程管理效率、减轻劳动强度、提高信息处理速度和准确性&#xff0c;公司对内部工程管理的提…

数字孪生轻量化引擎——AMRT3D引擎

随着全球经济亟待复苏&#xff0c;作为科技发展主要需求技术之一&#xff0c;数字孪生已经成为全球多个国家重点布局行业。例如&#xff0c;美国工业互联网盟将数字孪生作为工业互联网落地的核心和关键&#xff0c;德国工业4.0参考架构将数字孪生作为重要内容。 数字孪生已经形…

【问题解决】将页面下载为PDF文件(前端实现)

在前端开发过程中&#xff0c;将html页面下载为pdf文件的思路&#xff1a;使用html2canvas和jsPDF两个库&#xff0c;大致流程就是首先使用html2canvas库将组件内容转换为图像&#xff0c;然后使用jsPDF库将图像生成为PDF文件。 安装html2canvas库 npm install html2canvas安…

联邦学习算法介绍-FedAvg详细案例-Python代码获取

联邦学习算法介绍-FedAvg详细案例-Python代码获取 一、联邦学习系统框架二、联邦平均算法&#xff08;FedAvg&#xff09;三、联邦随梯度下降算法 (FedSGD&#xff09;四、差分隐私随联邦梯度下降算法 (DP-FedSGD&#xff09;五、差分隐私联邦平均算法 (DP-FedAVG&#xff09;六…

word图片点击放大,word图片双击放大

网上自己搜了半天&#xff0c;都是顾左右而言他&#xff0c;直接实践一下。 干货就是&#xff1a;调整word视图为阅读模式&#xff0c;双机图片 就能放大查看&#xff0c;然后还会有一个 放大镜供点击放大到整个屏幕。 其实挺好理解的&#xff0c;word跟wps不同&#xff0c;w…

二十六、模型、视图、代理

二十六、模型、视图、代理 模型&#xff08;Model&#xff09; InterView框架中所有模型都基于抽象基类QAbstractItemModel类&#xff0c;此类由QAbstractListModel、QAbstractTableModel和QAbstractProxyModel类继承。 视图&#xff08;View&#xff09; InterView框架中的…

为什么需要分库分表,如何实现?

本文我们主要讲解“为什么需要分库分表&#xff0c;如何实现”。 在前文中讲到了读写分离&#xff0c;读写分离优化了互联网读多写少场景下的性能问题&#xff0c;考虑一个业务场景&#xff0c;如果读库的数据规模非常大&#xff0c;除了增加多个从库之外&#xff0c;还有其他…

爬虫 scrapy ——scrapy shell调试及下载当当网数据(十一)

目录 一、scrapy shell 1.什么是scrapy shell&#xff1f; 2.安装 ipython 3.使用scrapy shell 二、当当网案例 1.在items.py中定义数据结构 2.在dang.py中解析数据 3.使用pipeline保存 4.多条管道的使用 5.多页下载 参考 一、scrapy shell 1.什么是scrapy shell&am…

行业锦囊|住建厅CA证书使用指南

数字化、高效率、低成本已成为企业发展转型的重要考量因素&#xff0c;建筑工程企业也不例外。而工程资料签署和管理又是每个建筑工程企业发展转型绕不开的课题&#xff1a;在建工程项目异地盖章周期性长、庞大的签署量及海量的文件管理如何优化&#xff1b;企业如何缩短对公业…

AXURE地图获取方法

AXURE地图截取地址 https://axhub.im/maps/ 1、点击上方地图或筛选所需地区的地图&#xff0c;点击复制到 Axure 按钮&#xff0c;到 Axure 粘贴就可以了 2、复制到 Axure 后&#xff0c;转化为 svg 图形&#xff0c;就可以随意更改尺寸/颜色/边框&#xff0c;具体操作如下&am…

【AI美图】第01期效果图,AI人工智能无绘画,美图欣赏

人工智能被各大平台传递&#xff0c;我也来凑一下热闹&#xff0c;放一组基础图片展示 介绍一下模型来源Stability AI&#xff1a; Stability AI直接将模型开源&#xff0c;且方式之粗暴&#xff0c;几乎完全不对生成内容做任何审核或者过滤。目前发布的稳定版本仅包含部分关…

ProcessOn基本介绍和完成案列和自定义元件

ProcessOn基本介绍和完成案列和自定义元件 1.什么是ProcessOn2.初步使用ProcessOn3.使用ProcessOn完成医疗项目门诊模块的流程图4.使用ProcessOn完成医疗项住院模块的流程图5.使用ProcessOn完成医疗项目药房模块的流程图5.使用ProcessOn完成会议oa模块的流程图6.自定义原件库1.…

设计表单表格组件

前言 什么是表单表格呢&#xff1f;简单来说就是在一个表格里面进行表单操作&#xff0c;执行增删改查。这在一些后台管理系统中是尤为常见的。 今天我们根据vue2 element-ui来设计一个表单表格组件。&#xff08;不涉及完整代码&#xff0c;想要使用完整功能可以看底部连接…

超级计算机行业分析:中国市场概念及发展现状研究

近年来&#xff0c;在技术研发和产业应用的共同推动下&#xff0c;中国超级计算机(简称“超算”)快速发展——技术创新方面&#xff0c;采用自主研发芯片的多个国内超算曾在世界超算榜单上排名第一;整体规模方面&#xff0c;在最新发布的全球超算榜单中&#xff0c;中国占比超过…

<博图> 浮点数(real)相加时结果不精确的解决方法

问题截图&#xff1a; 每按下一次按钮&#xff0c;浮点数1 加0.1&#xff0c;结果放在浮点数1中&#xff1b;在加到第8次时会多出小数点位数。 解决方法&#xff1a; 对要进行相加的浮点数进行转换&#xff0c;如下 &#xff1a; &#xff08;注&#xff1a;如果图片模糊保存…

流程图、泳道图的介绍和示例分享,以及自定义元件库的介绍

目录 一. 流程图介绍 二. Processon使用 新建一个流程图 图形的使用 三. 流程图示例 登录界面 门诊业务流程图 住院业务流程图 药房业务流程图 会议OA流程图 四. 泳道图介绍 五. 自定义元件库 5.1 新建一个元件库 5.2 创建元件 5.3 使用自定义元件库 一. 流程图介…

四六级高频词组9

目录 词组 其他链接 词组 351. be guilty of 犯有…罪或过失 352. be in the habit of 习惯于 353. break off &#xff08;a habit&#xff09; 改掉&#xff08;某种习惯&#xff09; 354. break sb. of &#xff08;a habit&#xff09;使某人改掉&#xff08;某习惯&a…

UI自动化Selenium 测试报告BeautifulReport使用及修改

一、BeautifulReport安装 pip安装 pip install BeautifulReport Pycharm中安装 二、原生报告样式 原生报告&#xff0c;因为我使用ddtunittest数据驱动模式&#xff0c;所以Excel中所有参数都会被拼接出来&#xff0c;导致测试方法里面有太多不需要展示的内容&#xff1b; …

关于impdp导入时候索引是否使用了并行了?

关于impdp导入时候索引是否使用了并行的问题&#xff0c;不是看sqlfile&#xff0c;而是看实际worker 参看&#xff1a;Impdp Parallel Index Creation Always Creates Indexes with Degree 1 (Doc ID 1289032.1&#xff09; Oracle Database - Enterprise Edition - Version …

JavaScript如果实现一段文字的高亮显示

JavaScript实现将一段文字检索高亮显示,效果如下: 实现方法:调用highlight函数 highlight("JavaScript如果实现一段文字的高亮显示", "高亮")实战代码实现: function highlight(value, search)