神经网络与深度学习——第3章 线性模型

本文讨论的内容参考自《神经网络与深度学习》https://nndl.github.io/ 第3章 线性模型

线性模型

线性模型(Linear Model)是机器学习中应用最广泛的模型,指通过样本特征的线性组合来进行预测的模型,给定一个 D D D维样本 x = [ x 1 , . . . , x D ] T \bm x = [x_1,...,x_D]^T x=[x1,...,xD]T,其线性组合函数为
在这里插入图片描述
在分类问题中,由于输出目标 y y y是一些离散的标签,而 f ( x ; ω ) f(\bm x;\bm \omega) f(x;ω)的值域为实数,因此无法直接用 f ( x ; ω ) f(\bm x;\bm \omega) f(x;ω)来进行预测,需要引入一个非线性的决策函数 g ( ⋅ ) g(\cdot) g()来预测输出目标
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

线性判别函数和决策边界

从公式(3.3)可知,一个线性分类模型线性分类器,是由一个或多个线性的判别函数 f ( x ; ω ) = ω T x + b f(\bm x;\bm \omega)=\bm \omega^T x+b f(x;ω)=ωTx+b和非线性的决策函数 g ( ⋅ ) g(\cdot) g()组成,我们首先考虑二分类的情况,然后再扩展到多分类的情况。

二分类

二分类问题的类别标签 y y y只有两种取值,通常可以设为 + 1 , − 1 {+1,-1} +1,1 0 , 1 {0,1} 0,1。在二分类问题中,常用正例负例来分别表示属于类别+1和-1的样本。
在二分类问题中,我们只需要一个线性判别函数 f ( x ; ω ) = ω T x + b f(\bm x;\bm \omega)=\bm \omega^T x+b f(x;ω)=ωTx+b。特征空间 R D R^D RD中所有满足 f ( x ; ω ) = 0 f(\bm x; \bm \omega)=0 f(x;ω)=0的点组成一个分割超平面,称为决策边界决策平面。决策边界将特征空间一分为二,划分成两个区域,每个区域对应一个类别。
所谓“线性分类模型”就是指其决策边界是线性超平面。在特征空间中,决策平面与权重向量 ω \bm \omega ω正交,特征空间中每个样本点到决策平面的有向距离

在这里插入图片描述
3.2给出了一个二分类问题的线性决策边界示例,其中样本特征向量 x = [ x 1 , x 2 ] \bm x=[x1,x2] x=[x1,x2],权重向量 ω = [ ω 1 , ω 2 ] \bm \omega=[\omega 1,\omega 2] ω=[ω1,ω2]
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

多分类

在这里插入图片描述
在这里插入图片描述
这里解释一下这幅图:
(a)如果有C个类别,那么有C个二分类器,每个二分类器有两种类别(是这个类、不是这个类),以中间区域为例, f 1 f_1 f1显示其不属于类别1,同理,也不属于类别2、3,所以它是无法判断类别的区域。
(b)如果有C个类别,就需要 C ( C − 1 ) / 2 C(C-1)/2 C(C1)/2个二分类器,每个分类器有两种类别(是这个类,是那个类),比如说 ω 2 \omega 2 ω2 ω 3 \omega 3 ω3就训练出了一个分类器 f 2 3 f_23 f23,划分第二类或者第三类,而中间部分根据分类器投票结果得到,由于投票可能出现平票的情况,如图就是类别1、2、3各一票,因此也无法判断类别。
(c)C个分类器,但是在难以确定类别的区域,使用argmax来决策,确定为分数最高的类别。
在这里插入图片描述

Logistic回归

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

参数学习

在这里插入图片描述
在这里插入图片描述

Softmax回归

在这里插入图片描述
在这里插入图片描述

参数学习

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

感知器

在这里插入图片描述

参数学习

在这里插入图片描述
这里需要解释更新权重的过程:每次分错一个样本 ( x , y ) (\bm x,y) (x,y)时,即 y ω T x < 0 y\bm \omega^T \bm x<0 yωTx<0,用 ω ^ = ω + y x \hat{\bm \omega} = \bm \omega+y\bm x ω^=ω+yx来更新权重,这样的话,当再次分这个样本的时候, y ω ^ x = y ( ω + y x ) T x = y ω T x + y 2 x T x = y ω T x + x T x > = y ω T x y\hat{\bm \omega} \bm x = y(\bm \omega + y\bm x)^T \bm x =y\bm \omega^T \bm x+y^2\bm x^T \bm x =y\bm \omega^T \bm x+\bm x^T \bm x>=y\bm \omega^T \bm x yω^x=y(ω+yx)Tx=yωTx+y2xTx=yωTx+xTx>=yωTx,所以这个值会变大,最终会大于0,也就是分类正确,所以这个更新权重的方式是合理的。
这种更新参数方式和Logistic回归区别在于,后者是更新的预测和真实值的差异,所以Logistic似乎更加合理。感知器只有犯错才更新,Logistic不管是否犯错,只要与真实分布有差异,就会更新参数。
在这里插入图片描述
在这里插入图片描述

感知器的收敛性

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

参数平均感知器

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

扩展到多分类

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

广义感知器的收敛性

在这里插入图片描述
在这里插入图片描述

支持向量机

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
**支持向量机就是要找到一个超平面,让最短距离(间隔)最大,即数据集中所有样本到分割超平面的最短距离最大。**图中的两条虚线就是支持向量,上面的那个点到超平面的距离就是间隔,这就是最短距离,决策边界是由支持向量决定的。

参数学习

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

核函数

在这里插入图片描述

软间隔

支持向量原始定义必须让样本在特征空间线性可分,对于不满足线性可分约束的样本,需要引入松弛变量
在这里插入图片描述
在这里插入图片描述

损失函数对比

在这里插入图片描述
在这里插入图片描述
这里给出解释,这个图给出了平方损失、Hinge损失、交叉熵损失、感知器损失和0-1损失在二分类上的对比,横坐标 y f ( x , ω ) yf(\bm x,\bm \omega) yf(x,ω)小于0代表分类错误,大于0是分类正确,可以看到,平方损失 L s q u a r e d = ( y − f ( x ; ω ) ) 2 = 1 − 2 y f ( x ; ω ) + ( y f ( x ; ω ) ) 2 = ( 1 − y f ( x ; ω ) ) 2 L_squared=(y-f(\bm x;\bm \omega))^2=1-2yf(\bm x;\bm \omega)+(yf(\bm x; \bm \omega))^2=(1-yf(\bm x; \bm \omega))^2 Lsquared=(yf(x;ω))2=12yf(x;ω)+(yf(x;ω))2=(1yf(x;ω))2在1左边是下降趋势,是合理的,但在1右边,命名已经分类正确并且离决策边界越来越远,但是损失函数反而上升,说明平方损失不适合二分类问题。Logistic回归的交叉熵损失求出来是公式3.104的形式,可以看出随着分类越正确,损失降低,但是即时已经划分正确了,它还是会有一部分损失,会进行参数更新。感知器损失是专门为二分类服务的,只有分错的情况才会有损失,软间隔支持向量机的损失函数相当于感知器损失函数向右平移一个单位。一个好的损失函数应该随着 y f ( x , ω ) yf(\bm x,\bm \omega) yf(x,ω)的增大而减少。

总结和深入阅读

在这里插入图片描述
在这里插入图片描述

习题

在这里插入图片描述
证明:设决策平面是 f ( x , ω ) = ω T x + b = 0 f(\bm x,\bm \omega)=\bm \omega^T \bm x+b=0 f(x,ω)=ωTx+b=0,对于 ∀ x 1 , x 2 ∈ ω T x + b = 0 \forall {x_1,x_2} \in \bm \omega^T \bm x+b=0 x1,x2ωTx+b=0,有 ω T x 1 + b = ω x 2 + b = 0 \bm \omega^T \bm x_1+b = \bm \omega \bm x_2+b = 0 ωTx1+b=ωx2+b=0,那么有 ω ( x 1 − x 2 ) = 0 \bm \omega(\bm x_1-\bm x_2)=0 ω(x1x2)=0,说明 ω \bm \omega ω和向量 x 1 − x 2 \bm {x_1-x_2} x1x2垂直,所以权重向量 ω \bm \omega ω与决策平面正交。
在这里插入图片描述
证明:点到平面的距离公式 d = ∣ A x + B y + C z + D ∣ A 2 + B 2 + C 2 d=\frac{|Ax+By+Cz+D|}{\sqrt{A^2+B^2+C^2}} d=A2+B2+C2 Ax+By+Cz+D ω T x = [ A , B , C ] x \bm \omega^T \bm x = [A, B, C]\bm x ωTx=[A,B,C]x,所以 d = ∣ f ( x ; ω ) ∣ ∣ ∣ ω ∣ ∣ d=\frac{|f(\bm x; \bm \omega)|}{||\bm \omega||} d=∣∣ω∣∣f(x;ω)
在这里插入图片描述

证明:只需证 ω c T ( ρ x 1 + ( 1 − ρ ) x 2 ) > ω c ~ T ( ρ x 1 + ( 1 − ρ ) x 2 ) \bm \omega^T_c(\rho \bm x_1 + (1-\rho)\bm x_2) > \bm \omega^T_{\tilde c}(\rho \bm x_1 + (1-\rho)\bm x_2) ωcT(ρx1+(1ρ)x2)>ωc~T(ρx1+(1ρ)x2),因为点 x 1 \bm x_1 x1 x 2 \bm x_2 x2被分为类别 c c c,那么有 ω c T x 1 > ω c ~ T x 1 \bm \omega^T_c \bm x_1>\bm \omega^T_{\tilde c}\bm x_1 ωcTx1>ωc~Tx1 ω c T x 2 > ω c ~ T x 2 \bm \omega^T_c \bm x_2>\bm \omega^T_{\tilde c}\bm x_2 ωcTx2>ωc~Tx2,这样有 ρ ( ω c T x 1 − ω c ~ T x 1 ) > 0 , ( 1 − ρ ) ( ω c T x 2 − ω c ~ T x 2 ) > 0 \rho (\bm \omega^T_c \bm x_1-\bm \omega^T_{\tilde c}\bm x_1)>0,(1-\rho) (\bm \omega^T_c \bm x_2-\bm \omega^T_{\tilde c}\bm x_2)>0 ρ(ωcTx1ωc~Tx1)>0,(1ρ)(ωcTx2ωc~Tx2)>0,因此有 ρ ( ω c T x 1 − ω c ~ T x 1 ) + ( 1 − ρ ) ( ω c T x 2 − ω c ~ T x 2 ) > 0 \rho (\bm \omega^T_c \bm x_1-\bm \omega^T_{\tilde c}\bm x_1)+(1-\rho) (\bm \omega^T_c \bm x_2-\bm \omega^T_{\tilde c}\bm x_2)>0 ρ(ωcTx1ωc~Tx1)+(1ρ)(ωcTx2ωc~Tx2)>0,即 ρ ω c T x 1 + ( 1 − ρ ) ω c T x 2 > ρ ω c ~ T x 1 + ( 1 − ρ ) ω c ~ T x 2 \rho \bm \omega^T_c \bm x_1+(1-\rho) \bm \omega^T_c \bm x_2>\rho \bm \omega^T_{\tilde c}\bm x_1+(1-\rho) \bm \omega^T_{\tilde c} \bm x_2 ρωcTx1+(1ρ)ωcTx2>ρωc~Tx1+(1ρ)ωc~Tx2,即 ω c T ( ρ x 1 + ( 1 − ρ ) x 2 ) > ω c ~ T ( ρ x 1 + ( 1 − ρ ) x 2 ) \bm \omega^T_c (\rho \bm x_1+(1-\rho)\bm x_2)>\bm \omega^T_{\tilde c}(\rho \bm x_1+(1-\rho)\bm x_2) ωcT(ρx1+(1ρ)x2)>ωc~T(ρx1+(1ρ)x2)。得证。
在这里插入图片描述
(1)这个其实就是“一对其余”方式的改进,一对其余是判别函数 f c f_c fc将属于类别 c c c和不属于类别 c c c划分,这题的题意是将属于类别 c c c和属于除了 c c c的其他类别划分,因此每一个样本都能根据判别函数划分开,并不存在同时不属于所有类别的情况,一定是可分的。
(2)这个就是一对一方式,会出现同时属于多个类别且投票票数相等的情况,这类区域的样本是不能划分类别的,因此该数据集不一定是线性可分的。
在这里插入图片描述
平方损失可以用于分类问题,但并不适合用于分类问题,由之前的损失函数对比图可以看出来,对于分类正确的情况,平方损失会增加,而且平方损失在Logistic回归的情况是非凸函数,容易收敛到局部最优。Logistic回归的激活函数一般是Sigmoid函数,当用平方损失时,有 L = 1 2 ( y ^ − y ) 2 L=\frac{1}{2}(\hat y-y)^2 L=21(y^y)2,对权重的导数为 ∂ L ∂ ω = ( y ^ − y ) σ ′ x \frac{\partial L}{\partial \bm \omega}=(\hat y-y)\sigma'\bm x ωL=(y^y)σx,那么进行权重更新的公式就为 ω = ω − μ ∂ L ∂ ω = ω − μ ( y ^ − y ) σ ′ x \bm \omega=\bm \omega-\mu\frac{\partial L}{\partial \bm \omega}=\bm \omega - \mu(\hat y -y)\sigma'\bm x ω=ωμωL=ωμ(y^y)σx。而Sigmoid函数在横坐标大的时候导数小,这样和参数更新的目标是相反的,在损失大的时候,参数更新反而慢,损失小的时候,梯度反而大。
在这里插入图片描述
公式3.39 R ( W ) = − 1 N ∑ n = 1 N ( y ( n ) ) T l o g y ^ ( n ) R(W)=-\frac{1}{N}\sum^N_{n=1} (y^{(n)})^Tlog\hat y^{(n)} R(W)=N1n=1N(y(n))Tlogy^(n),加入正则化后: R ( W ) = − 1 N ∑ n = 1 N ( y ( n ) ) T l o g y ^ ( n ) + λ W T W R(W)=-\frac{1}{N}\sum^N_{n=1} (y^{(n)})^Tlog\hat y^{(n)}+\lambda W^TW R(W)=N1n=1N(y(n))Tlogy^(n)+λWTW,对权重的导数为: ∂ R ( W ) ∂ W = − 1 N ∑ n = 1 N ( y ^ ( n ) − y ( n ) ) x ( n ) + 2 λ W \frac{\partial {R(W)}}{\partial W}=-\frac{1}{N}\sum^N_{n=1} (\hat y^{(n)}-y^{(n)})x^{(n)}+2 \lambda W WR(W)=N1n=1N(y^(n)y(n))x(n)+2λW,更新参数的时候为 W = W + α 1 N ∑ n = 1 N ( y ^ ( n ) − y ( n ) ) x ( n ) − 2 λ W W = W+\alpha \frac{1}{N}\sum^N_{n=1} (\hat y^{(n)}-y^{(n)})x^{(n)}-2 \lambda W W=W+αN1n=1N(y^(n)y(n))x(n)2λW。可以看出,加入正则化项之后,在更新参数时每次需要减去 2 λ W 2\lambda W 2λW,使得参数不会太大,便不会造成溢出之类的错误发生,同时也会抑制过拟合。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
设预测错误的样本有 K K K个,并且设选取到这些样本时的迭代次数为 t k t_k tk,那么根据算法3.2的步骤,可以计算出: ω = y 1 x 1 + y 2 x 2 + . . . + y k x k \bm \omega = y_1\bm x_1+y_2\bm x_2+...+y_k \bm x_k ω=y1x1+y2x2+...+ykxk u = t 1 y 1 x 1 + t 2 y 2 x 2 + . . . + t k y k x k u=t_1y_1\bm x_1+t_2y_2\bm x_2+...+t_ky_k\bm x_k u=t1y1x1+t2y2x2+...+tkykxk,因此, ω ‾ = ω − 1 T u = y 1 x 1 + y 2 x 2 + . . . + y k x k − 1 T ( t 1 y 1 x 1 + t 2 y 2 x 2 + . . . + t k y k y k ) = T − t 1 T y 1 x 1 + T − t 2 T y 2 x 2 + . . . + T − t k T y k x k \overline \omega=\omega-\frac{1}{T}u=y_1\bm x_1+y_2\bm x_2+...+y_k\bm x_k-\frac{1}{T}(t_1y_1\bm x_1+t_2y_2\bm x_2+...+t_ky_k\bm y_k)=\frac{T-t_1}{T} \bm y_1\bm x_1+\frac{T-t_2}{T}y_2\bm x_2+...+\frac{T-t_k}{T}y_k \bm x_k ω=ωT1u=y1x1+y2x2+...+ykxkT1(t1y1x1+t2y2x2+...+tkykyk)=TTt1y1x1+TTt2y2x2+...+TTtkykxk
而根据公式3.77 ω = ∑ t = 1 T ω t \bm \omega = \sum^T_{t=1} \omega_t ω=t=1Tωt ω t = ∑ i = 1 k < = t x i y i ω ‾ = 1 T ω \omega_t = \sum^{k<=t}_{i=1}x_iy_i\overline \omega=\frac{1}{T}\omega ωt=i=1k<=txiyiω=T1ω ω = ( x 1 y 1 + . . . + x 1 y 1 ) + ( x 1 y 1 + x 2 y 2 + . . . + x 1 y 1 + x 2 y 2 ) + . . . + ( ∑ i = 1 k x i y i + . . . + ∑ i = 1 k x i y i ) \bm \omega=(\bm x_1 y_1+...+\bm x_1 y_1)+(\bm x_1 y_1+\bm x_2 y_2+...+\bm x_1 y_1+\bm x_2 y_2)+...+(\sum^k_{i=1}\bm x_iy_i+...+\sum^k_{i=1}\bm x_i y_i) ω=(x1y1+...+x1y1)+(x1y1+x2y2+...+x1y1+x2y2)+...+(i=1kxiyi+...+i=1kxiyi)。式中,当第二个预测错误的样本被选取时才开始加 x 2 y 2 \bm x_2 y_2 x2y2,也就是说到达 t 2 t_2 t2时刻时才开始加,其中 x i y i \bm x_i y_i xiyi类似,到达 t i t_i ti时刻时开始加,因此 x i y i \bm x_i y_i xiyi共相加了 T − t i T-t_i Tti
所以 ω = ( T − t i ) x 1 y 1 + ( T − t 2 ) x 2 y 2 + . . . + ( T − t k ) x k y k \bm \omega = (T-t_i)\bm x_1 y_1+(T-t_2)\bm x_2y_2+...+(T-t_k)\bm x_k y_k ω=(Tti)x1y1+(Tt2)x2y2+...+(Ttk)xkyk ω ‾ = 1 T ω \overline \omega=\frac{1}{T} \omega ω=T1ω,得证。
在这里插入图片描述
这里不证明了,记住这个结论。
后续的习题之后有需要的时候再做。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/664841.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

解锁 GPT-4o 背后数据带来的情绪价值

GPT-4o 可以说已经是一个富有情感、通人性的智能语音助手&#xff0c;或者更准确地说&#xff0c;是一个越来越接近人类交互的 “新物种”。这个强大的模型同时具备文本、图片、视频和语音理解和合成方面的能力&#xff0c;甚至可以被视为 GPT-5 的一个未完成版。 01 富有情感的…

lipo制作通用版本静态库

文章目录 目的了解多架构的maclipo如何利用lipo编译通用版本静态库lipo 命令整理扩展目的 主要是使用lipo命令在macOS上创建通用版本的静态库(.a文件),来支持多种架构,如arm64,x86_64。 学习目的: 了解mac 不同架构arm64, x86_64了解lipo命令了解多架构的mac 随着appl…

Linux - 文件管理高级1

0.管道 | 将前面命令的标准输出传递给管道作为后面的标准输入 1.文件查找 find find 进行文件查找时&#xff0c;默认进行递归查找&#xff0c;会查找隐藏目录下的文件 1.1 用法 # find 查找路径 查找条件... -type // 文件类型 f 普通文件 b 设备 d …

数据目录用处如此之大?四个步骤教你构建数据目录

在数字化浪潮的推动下&#xff0c;数据已成为企业决策的核心。然而&#xff0c;随着数据量的爆炸性增长&#xff0c;如何高效地管理和利用这些宝贵的数据资产&#xff0c;成为了一个日益严峻的挑战。企业需要一个强大的工具来组织、索引和解释其数据&#xff0c;以便快速发现和…

代理IP怎么检测?如何判断IP好坏?

当我们的数字足迹无处不在&#xff0c;隐私保护显得愈发重要。而代理IP就像是我们的隐身斗篷&#xff0c;让我们在各项网络业务中更加顺畅。 我们常常看到别人购买了代理IP服务后&#xff0c;用在线检测网站检查IP&#xff0c;相当于一个”售前检验““售后质检”的作用。但是…

图书管理系统——Java实现

文章目录 Java实现图书管理系统问题分析框架搭建业务实现项目测试代码演示BookioperationUserMain&#xff08;默认包&#xff09; Java实现图书管理系统 学习了前六篇的SE语法&#xff0c;我们现在要用它们实现一个简单的图书管理系统项目&#xff0c;深入了解各个知识点的应…

【CH32V305FBP6】4. systick 配置

配置 main.c void SYSTICK_Init_Config(u_int64_t ticks) {SysTick->SR & ~(1 << 0);//clear State flagSysTick->CMP ticks - 1;SysTick->CNT 0;SysTick->CTLR 0xF;NVIC_SetPriority(SysTicK_IRQn, 15);NVIC_EnableIRQ(SysTicK_IRQn); }中断计数 …

算法-扫描线

目录 什么是扫描线算法&#xff1f; 扫描线简单应用 更多的扫描线 什么是扫描线算法&#xff1f; 在计算几何中&#xff0c;扫描线算法&#xff08;scan line algorithm&#xff09;一般用来解决几何图形的面积交并&#xff0c;周长交并问题&#xff0c;扫描线算法的核心思想…

Day 8:1461. 检查一个字符串是否包含所有长度为 K 的二进制子串

Leetcode 1461. 检查一个字符串是否包含所有长度为 K 的二进制子串 给你一个二进制字符串 s 和一个整数 k 。如果所有长度为 k 的二进制字符串都是 s 的子串&#xff0c;请返回 true &#xff0c;否则请返回 false 。 截取每个长度为 k 的字符串&#xff0c;加入 Set 中&#x…

wpf listbox实现选中动画

效果如下&#xff1a; 参考&#xff1a;https://github.com/WPFDevelopersOrg/WPFDevelopers/blob/master/src/WPFDevelopers.Samples.Shared/Controls/NavigateMenu/NavigateMenu.xaml 实现上述效果的前台代码&#xff1a; <Windowx:Class"ListBox.MainWindow"…

数据隐私新篇章:Facebook如何保护用户信息

随着数字化时代的到来&#xff0c;数据隐私保护成为了社交媒体平台和用户共同关注的焦点。作为全球最大的社交网络之一&#xff0c;Facebook一直致力于保护用户的隐私和数据安全。本文将深入探讨Facebook在数据隐私保护方面的措施和实践&#xff0c;以及其如何开启数据隐私的新…

C++系列-类模板

&#x1f308;个人主页&#xff1a;羽晨同学 &#x1f4ab;个人格言:“成为自己未来的主人~” 类模板的定义格式&#xff1a; #define _CRT_SECURE_NO_WARNINGS #include<iostream> using namespace std; template<class T> class Stack { public:Stack(size_…

u盘文件保密的方法有哪些?关于U盘的使用你要知道这些!

U盘作为便携式的存储设备&#xff0c;被广泛应用于日常工作和生活中。 然而&#xff0c;U盘的丢失或被盗可能导致敏感数据泄露&#xff0c;因此&#xff0c;掌握U盘文件保密的方法至关重要。 本文将介绍几种有效的U盘文件保密方法&#xff0c;并分享关于U盘使用的关键知识&…

BioVendor—Surfactant Protein D Human ELISA

人表面活性剂蛋白D是糖蛋白和钙依赖凝集素胶原亚家族的一员。SP-D是一种同源三聚体蛋白&#xff0c;由三个43kDa单元组成&#xff0c;这些单元在它们的中间结合。大多数SP-D主要含有十二聚体(四个三聚体亚单位)&#xff0c;但也观察到更高的多聚体。每个单元由至少四个离散的结…

旧衣回收小程序带来的收益优势,小程序有哪些功能?

随着互联网的快速发展&#xff0c;大众对旧衣回收市场也越来越了解&#xff0c;对于闲置的旧衣物也有了适合的处理方式。旧衣回收也符合了当下资源回收利用&#xff0c;因此&#xff0c;旧衣回收市场获得了爆发式增长&#xff0c;市场规模不断扩大。同时市场中还吸引了越来越多…

记录岁月云明细账excel导出的性能优化

财务软件报表还是非常麻烦&#xff0c;因为使用excel最好的就是财务&#xff0c;但是通过java导出excel&#xff0c;使用easyexcel不用报表工具&#xff0c;不是这么容易。采用jprofile对一个导出操作进行监控&#xff0c;其中一家零售企业导出当月全部明细账&#xff0c;检测到…

MySQL数据库--从创建数据库到删库跑路

目录 MySQL安装: 1. 数据库基本操作1.1 创建数据库1.2 显示当前数据库1.3 删除数据库1.4 使用数据库/选中数据库 2. SQL中的数据类型2.1 数值类型2.2 字符串类型2.3 时间类型 3. 表的操作3.2 创建表3.1 显示数据库中的表3.3 查看表的详细情况3.4 删除表3.5 注释3. 修改列(了解即…

dubbo复习:(18)服务端Filter

用来在服务响应返回到客户端之前进行额外处理。 一、定义Filter package cn.edu.tju.config;import org.apache.dubbo.rpc.Filter; import org.apache.dubbo.rpc.Result; import org.apache.dubbo.rpc.Invoker; import org.apache.dubbo.rpc.Invocation; import org.apache.du…

检定记录内容解析:非红外二氧化硫气体检测仪的维护与验证

在工业生产与环境保护中&#xff0c;二氧化硫作为一种常见的有害气体&#xff0c;其浓度的监测和控制显得尤为重要。 非红外二氧化硫气体检测仪以其独特的检测原理和高灵敏度&#xff0c;在二氧化硫监测领域发挥着不可或缺的作用。 在这篇文章中&#xff0c;佰德将详细介绍非…

神经网络与深度学习——第4章 前馈神经网络

本文讨论的内容参考自《神经网络与深度学习》https://nndl.github.io/ 第4章 前馈神经网络 前馈神经网络 神经元 Sigmoid型函数 Hard-Logistic函数和Hard-Tanh函数 ReLU函数 带泄露的ReLU 带参数的ReLU ELU函数 Softplus函数 Swish函数 GELU函数 Maxout单元 网络结构 前馈网络…