机器学习实验----支持向量机(SVM)实现二分类

目录

一、介绍

(1)解释算法

(2)数据集解释

二、算法实现和代码介绍

1.超平面

2.分类判别模型

3.点到超平面的距离

4.margin 间隔

5.拉格朗日乘数法KKT不等式

(1)介绍

(2)对偶问题

(3)惩罚参数

(4)求解

6.核函数解决非线性问题

7.SMO

(1)更新w

(2)更新b

三、代码解释及其运行结果截图

(1)svm(拉格朗日、梯度、核函数)

(2)测试集预测

(3)画出超平面

四、实验中遇到的问题

五、svm的优缺点

优点:

缺点: 

六、实验中还需要改进的地方

七、总代码展现


一、介绍

(1)解释算法

支持向量机(Support Vector Machine, SVM)是一类按监督学习(supervised learning)方式对数据进行二元分类的广义线性分类器(generalized linear classifier),其决策边界是对学习样本求解的最大边距超平面                                                                 ------------百度百科

 本实验采取的数据集依旧是鸢尾花数据集,实现的是二分类,为了使得数据可以在坐标轴上展示出来,实验中取的是鸢尾花数据集的setosa和versicolor类别。

支持向量机SVM的目标是找到一个能够将两类数据点分隔开的超平面,使得两侧距离最近的数据点到超平面的距离最大。这些最靠近超平面的数据点被称为支持向量。

(2)数据集解释

data = pd.read_csv(r"C:\\Users\\李烨\\Desktop\\ljhg.txt", sep=' ')
X_train = data.iloc[:, :2].values
y_train = np.where(data.iloc[:, -1].values == 'setosa', 1, -1)

test_data = pd.read_csv("C:\\Users\\李烨\\Desktop\\ljhgtest.txt", sep='\s+')
X_test = test_data[["Sepal.Length", "Sepal.Width"]].values

 采用鸢尾花数据集,为了可以在二维图上显示,所以我截取了部分数据,"Sepal.Length", "Sepal.Width"两列来表示横纵坐标,把setosa判断为正类1,把versicolor判断为负类-1

二、算法实现和代码介绍

1.超平面

两侧距离最近的数据点到超平面的距离最大。超平面被用来划分特征空间,以便实现对数据进行分类或回归。

在多分类实验中,是n元空间中,超平面就是一个n-1维的空间。 我们实现的是二分类,就得到的是一条直线。

给定样本数据集,假设样本特征为X,样本标签为y。其中y 的取值只能有+1和-1。表示样本正类和负类。

公式:w^{T}x+b=0

其中w代表每个特征前的系数,也就是超平面的法向量

2.分类判别模型

公式:f(w)=sign(w^{T}x+b)

当f(w)>0时,判定为正类,否则判别为负类。

3.点到超平面的距离

得到样本点到超平面距离的公式:\text{dis} = \frac{|w^T x + b|}{||w||}

在二维空间里面,也就是两个特征中,我们可以把超平面也就是直线的公式写成ax+by+c=0

将一个点代入,这个点可能在直线的上方,直线上,和直线的下方。那么对于分类为正类1和负类-1,我们可以得到新的公式:

\text{dis} = \frac{w^T x + b}{||w||}y_{i}

其中||w||=\sqrt{w_{1}^{2}+...+w_{i}^{2}+...w_{n}^{2}}

4.margin 间隔

从网上找了张图便于理解

支持向量:在支持向量机中起关键作用的训练数据点。在SVM中,超平面由这些支持向量确定,它们是离分隔超平面最近的那些点。

图中l1和l3直线的确定就是按照支持向量来确定的,查找正类和负类中距离超平面最近的点,找到超平面使得这个间隔最大,以此来确定超平面。

w,b都是未知参数,所以我们就将l1和l3等比例缩放

最后得到l1:w^{T}x+b=-1

              l3:l1:w^{T}x+b=1

那么这两条直线到超平面l1:w^{T}x+b=0的距离就可以表示为d=\frac{1}{||w||}

那我们就可以得到预测为正类的公式w^{T}x_{i}+b>=1(y=1)

                                        负类的公式w^{T}x_{i}+b<=-1(y=-1)

合并后得到y_{i}(w^{T}x_{i}+b)>=1

我们确定超平面是为了分隔两个类别,所以需要找到超平面到支持向量的最大距离,也就是margin间隔。也就是求两条直线到超平面距离的最大值d,也就是求||w||的最大值,为了方便计算,也就是求的\frac{1}{2}||w||^{2}的最大值。

5.拉格朗日乘数法KKT不等式

(1)介绍

拉格朗日乘数法的主要是将有等式约束条件优化问题转换为无约束条件,求解带约束条件下的极值。因为拉格朗日是求解等式约束条件,而要求解带不等式约束条件下的求解,所以引入KKT不等式约束。

  对于 求解min f(x) \, \, \, \, \, \, \,\, \, s.t\, \, \, \, \, \, \, \, h(x)<=0

我们可以考虑加入alpha使得h(x)+\alpha ^{2}=0,这样就可以了利用拉格朗日乘数法得到

拉格朗日得到min \, L(x,\lambda ,\alpha)=f(x)+\lambda (h(x)+\alpha ^{2})\, \, \, \lambda >=0,求解该式子对应的极值。

对该式子求导得到

\frac{\partial L}{\partial x}=\frac{\partial f(x)}{\partial x}+\lambda \frac{\partial h(x)}{\partial x}=0\\\frac{\partial L}{\partial \lambda }=h(x)+\alpha ^{2}=0\\\frac{\partial L}{\partial \alpha }=2\lambda \alpha \\\lambda >=0

为了求解f(x)在s.t条件下的极值,我们先求得不在约束条件下的极值p,然后在约束条件下查找合适的x使得他尽可能的靠近极值点,也就是说alpha就没影响等式。那么就把问题转化为

min_{x}max_{\lambda } L(x,\lambda )\;\lambda >=0

(2)对偶问题

对于求解min_{x}max_{\lambda } L(x,\lambda )\;\lambda >=0等效于 求解max_{\lambda}min_{x } L(x,\lambda )\;\lambda >=0

当然这样交换是假设成立。情况分为强对偶和弱对偶

如果是弱对偶,因为是先求解最小值的x,就会使得求最大值是在小中选择较大的,那么max_{\lambda}min_{x } L(x,\lambda )<=min_{x}max_{\lambda } L(x,\lambda )。而如果等价的话,那么就是该交换成立。特别的是,在本实验中下凸满足Slater条件,所以对于所有下凸函数都是满足强对偶性。

(3)惩罚参数

惩罚参数C控制了分类器对错误分类样本的容忍程度。较大的C值会导致分类器试图尽量减少误分类样本的数量,这可能会导致模型在训练数据上表现得更好,但也可能导致过拟合的风险增加;而较小的C值则对误分类样本的惩罚较小,允许一些样本被错分,从而使得决策边界更加平滑,减少了过拟合的风险。

我们可以预料到,数据中肯定存在一些点会影响到超平面的选择从而造成超平面的分类效果不理想,这时候就引入惩罚参数,当该点的误差超过一定界限的对其惩罚较大,就减少该样本点造成的误差。

(4)求解

最后求解极值就是用到和之前逻辑回归算法一样的梯度上升和梯度下降算法,这里就不多做介绍。 

6.核函数解决非线性问题

用升维的方法来解决线性不可分的问题。

假设原始特征为x1,x2,x3,那么将这三个特征两两组合的得到:

x1^{2},x1x2,x1x3,x2^{2},x2x3,x3^{2}在训练模型的适合将这些参与到训练模型中。

对于两个数据m和n,将m和n内积,然后平方得到

公式:K(m\cdot n)=\phi m\cdot \phi n=(m\cdot n)^{2}

这个公式是多项式核函数,当时他的完整公式是K(m\cdot n)=\phi m\cdot \phi n=(m\cdot n+c)^{r}

核函数有线性核函数、多项式核函数、高斯核函数等。

def polynomial_kernel(X, Y, degree=2):
    return (np.dot(X, Y.T) ) ** degree

7.SMO

在SMO算法中,需要解决的优化问题是一个凸二次规划问题,其目标是最小化关于拉格朗日乘子alpha的二次函数,同时满足一些约束条件,例如 KKT 条件。通过构建拉格朗日函数,然后应用SMO算法来迭代优化,最终得到最优的 alpha 和 b

(1)更新w

选择两个样本i和j来进行更新,更新步长的计算与核函数的值以及拉格朗日乘子都有关系。

公式:\eta = 2 \cdot K_{ij} - K_{ii} - K_{jj}

这个步长有正有负。当为正数的时候意味着在更新拉格朗日乘子时,朝着梯度方向移动一个较小的步长。为负数,则可能表示算法中的错误,需要检查和调整。

 

(2)更新b

 b1 = b - E_i - y[idx] \cdot (w[idx] - \alpha _{iold}) \cdot K(x_i, x_i) - y[j] \cdot (w[j] - \alpha _{jold}) \cdot K(x_i, x_j)

b2 = b - E_j - y[idx] \cdot (w[idx] - \alpha_{iold}) \cdot K(x_i, x_j) - y[j] \cdot (w[j] - \alpha _{jold}) \cdot K(x_j, x_j) 

0 < w_i < C时 b=b1;

0 < w_j < C时b=b2;

否则b=\frac{b1+b2}{2}

当然a和b的更新,这边学习的仅仅只是其中的一种。

三、代码解释及其运行结果截图

(1)svm(拉格朗日、梯度、核函数)

def svm_fit(X, y, C, kernel, degree=2, alpha=0.001, num=1000):
    n_samples, n_features = X.shape
    w = np.zeros(n_samples)
    b = 0

    kernel_matrix = kernel(X, X, degree)

    for _ in range(num):
        for idx, x_i in enumerate(X):
            E_i = np.sum(w * y * kernel_matrix[idx]) + b - y[idx]
            if ((y[idx] * E_i < -alpha and w[idx] < C) or (y[idx] * E_i > alpha and w[idx] > 0)):
                j = np.random.choice(np.delete(np.arange(n_samples), idx))
                E_j = np.sum(w * y * kernel_matrix[j]) + b - y[j]

                w_i_old, w_j_old = w[idx], w[j]

                if (y[idx] != y[j]):
                    L = max(0, w[j] - w[idx])
                    H = min(C, C + w[j] - w[idx])
                else:
                    L = max(0, w[idx] + w[j] - C)
                    H = min(C, w[idx] + w[j])

                if L == H:
                    continue

                eta = 2 * kernel_matrix[idx, j] - kernel_matrix[idx, idx] - kernel_matrix[j, j]
                if eta >= 0:
                    continue

                w[j] = w[j] - (y[j] * (E_i - E_j)) / eta
                w[j] = max(L, min(H, w[j]))

                if abs(w[j] - w_j_old) < 1e-5:
                    continue

                w[idx] = w[idx] + y[idx] * y[j] * (w_j_old - w[j])

                b1 = b - E_i - y[idx] * (w[idx] - w_i_old) * kernel_matrix[idx, idx] - y[j] * (
                            w[j] - w_j_old) * kernel_matrix[idx, j]
                b2 = b - E_j - y[idx] * (w[idx] - w_i_old) * kernel_matrix[idx, j] - y[j] * (
                            w[j] - w_j_old) * kernel_matrix[j, j]

                if 0 < w[idx] < C:
                    b = b1
                elif 0 < w[j] < C:
                    b = b2
                else:
                    b = (b1 + b2) / 2

    return w, b
  1.  C是惩罚参数, kernel是代表的核函数, degree是核函数的阶数, alpha是梯度的步长, num是迭代次数。用E_i来表示的是第i个样本的预测误差,也就是样本的核函数对应的数据到超平面的距离减去该样本的分类之和。
  2. if ((y[idx] * E_i < -alpha and w[idx] < C) or (y[idx] * E_i > alpha and w[idx] > 0))是来判断这个是否要更新参数,如果误差太大,那么就说明w[idx]的值不合适,就需要更新他。
  3. 先从数据中再次随机选取一个数据,判断y[idx] != y[j],对w[j]进行约束在一定范围内,使得在满足约束条件的同时,能够使得目标函数在更新后有下降较快,可以更节省时间。
  4. 如果约束到一个点上面,就无法继续优化了,如果没有,二阶导数判断一下更新的方向。if eta >= 0说明图像是下凸的,跳过再次更新,为负数就需要进行整改。
  5. 对w进行更新,但是w应该在一定范围内。如果w[j]的改变量很小,就认为他对w[idx]的更新没有贡献,跳过。
  6. 根据smo更新b的方式对b进行更新。

(2)测试集预测

def predict(w, b, X_train, y_train, X_test, kernel, degree=2):
    predictions = []
    for x in X_test:
        prediction = b
        for i, x_i in enumerate(X_train):
            prediction += w[i] * y_train[i] * kernel(x_i, x, degree)
        predictions.append(np.sign(prediction))
    return predictions

 对于测试集中的数据,将他们与训练集中的数据核函数,再根据得到的值为正数和负数分类到正类和负类。

运行结果:

可以看到对于二分类的结果还是较为准确的。

(3)画出超平面

def plot_decision_boundary(X, y, w, b, kernel, degree=2):
    x1_min, x1_max = X[:, 0].min() - 1, X[:, 0].max() + 1
    x2_min, x2_max = X[:, 1].min() - 1, X[:, 1].max() + 1
    xx1, xx2 = np.meshgrid(np.arange(x1_min, x1_max, 0.1), np.arange(x2_min, x2_max, 0.1))
    Z = predict(w, b, X, y, np.c_[xx1.ravel(), xx2.ravel()], kernel, degree)
    Z = np.array(Z).reshape(xx1.shape)
    plt.contourf(xx1, xx2, Z, alpha=0.4)
    plt.scatter(X[:, 0], X[:, 1], c=y, marker='o', edgecolors='k')

因为超平面中用到了核函数,所以超平面的公式就和样本数量有关,得到的公式就不再是可以像逻辑回归一样直接表示出来,需要最坐标轴上面的点用核函数表示 代入到公式中得到预测值。

这个代码是参考了网上的代码,以坐标轴的形式,把坐标轴上的点用核函数的公式拿去预测,那么他就得到了整张坐标轴上的分类。超平面就是两个分类交叉的地方。

运行结果:

 

四、实验中遇到的问题

  1. 实验中遇到的最主要的问题就是对w和b的更新上,因为和逻辑回归一点像,就没有真正理解算法,对w和b的选取和更新是都花了较大的时间来理解SMO的算法,SMO算法有许多给定的公式来更新w和b,核函数和拉格朗日乘子法KKT不等式等都是利用公式求解,公式较多较为复杂,重点就在对这些公式的掌握和理解上面。
  2. 实验中的另一个问题就是对于惩罚参数的选取上,由于刚开始看到的并没有添加惩罚参数,所以导致超平面受到的影响较大,受到个别点的影响,导致拟合效果非常不好,而且由于是利用梯度求解,所以就会导致超平面因为拟合效果不好。如图。超平面并不能很好的划分。

3.超平面的画法上面,最开始是想直接将点表示出来,但是发现用核函数得到的超平面公式与样本点的数量有关系,在画超平面的时候仍然需要对他进行核函数求解,所以在预测的时候加上核函数就可以了。

五、svm的优缺点

优点:

逻辑回归主要是处理线性问题,与之相比,支持向量机可以处理许多非线性的问题,SVM 找到最大间隔超平面,这意味着它试图最大化类别之间的间隔,拟合效果会更好。在高维空间中svm支持向量机的适应效果回归更好。

缺点: 

支持向量机svm的优化问题通常是凸优化问题,它的计算复杂度随着样本数量和特征维度的增加而增加。在处理大规模数据和高维数据时,训练时间和内存时间复杂度很大。

六、实验中还需要改进的地方

  1. 与逻辑回归一样,使用的是普通梯度,而随机梯度上升在每次迭代中只需要计算一个样本数据的梯度,因此通常比梯度上升更快。我们可以利用随机梯度来减小时间复杂度。
  2. 由于对SMO算法的不熟悉,所以我的实验中用到的是最简单的SMO,复杂度高,程序预测效果没那么好,使用更加完整成熟的SMO算法可以有效改进拟合效果。

七、总代码展现

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
def polynomial_kernel(X, Y, degree=2):
    return (np.dot(X, Y.T) ) ** degree
def svm_fit(X, y, C, kernel, degree=2, alpha=0.001, num=1000):
    n_samples, n_features = X.shape
    w = np.zeros(n_samples)
    b = 0

    kernel_matrix = kernel(X, X, degree)

    for _ in range(num):
        for idx, x_i in enumerate(X):
            E_i = np.sum(w * y * kernel_matrix[idx]) + b - y[idx]
            if ((y[idx] * E_i < -alpha and w[idx] < C) or (y[idx] * E_i > alpha and w[idx] > 0)):
                j = np.random.choice(np.delete(np.arange(n_samples), idx))
                E_j = np.sum(w * y * kernel_matrix[j]) + b - y[j]
                w_i_old, w_j_old = w[idx], w[j]
                if (y[idx] != y[j]):
                    L = max(0, w[j] - w[idx])
                    H = min(C, C + w[j] - w[idx])
                else:
                    L = max(0, w[idx] + w[j] - C)
                    H = min(C, w[idx] + w[j])
                if L == H:
                    continue
                eta = 2 * kernel_matrix[idx, j] - kernel_matrix[idx, idx] - kernel_matrix[j, j]
                if eta >= 0:
                    continue

                w[j] = w[j] - (y[j] * (E_i - E_j)) / eta
                w[j] = max(L, min(H, w[j]))
                if abs(w[j] - w_j_old) < 1e-5:
                    continue
                w[idx] = w[idx] + y[idx] * y[j] * (w_j_old - w[j])
                b1 = b - E_i - y[idx] * (w[idx] - w_i_old) * kernel_matrix[idx, idx] - y[j] * (
                            w[j] - w_j_old) * kernel_matrix[idx, j]
                b2 = b - E_j - y[idx] * (w[idx] - w_i_old) * kernel_matrix[idx, j] - y[j] * (
                            w[j] - w_j_old) * kernel_matrix[j, j]
                if 0 < w[idx] < C:
                    b = b1
                elif 0 < w[j] < C:
                    b = b2
                else:
                    b = (b1 + b2) / 2

    return w, b

def predict(w, b, X_train, y_train, X_test, kernel, degree=2):
    predictions = []
    for x in X_test:
        prediction = b
        for i, x_i in enumerate(X_train):
            prediction += w[i] * y_train[i] * kernel(x_i, x, degree)
        predictions.append(np.sign(prediction))
    return predictions

def plot_decision_boundary(X, y, w, b, kernel, degree=2):
    x1_min, x1_max = X[:, 0].min() - 1, X[:, 0].max() + 1
    x2_min, x2_max = X[:, 1].min() - 1, X[:, 1].max() + 1
    xx1, xx2 = np.meshgrid(np.arange(x1_min, x1_max, 0.1), np.arange(x2_min, x2_max, 0.1))
    Z = predict(w, b, X, y, np.c_[xx1.ravel(), xx2.ravel()], kernel, degree)
    Z = np.array(Z).reshape(xx1.shape)
    plt.contourf(xx1, xx2, Z, alpha=0.4)
    plt.scatter(X[:, 0], X[:, 1], c=y, marker='o', edgecolors='k')

data = pd.read_csv(r"C:\\Users\\李烨\\Desktop\\ljhg.txt", sep=' ')
X_train = data.iloc[:, :2].values
y_train = np.where(data.iloc[:, -1].values == 'setosa', 1, -1)

test_data = pd.read_csv("C:\\Users\\李烨\\Desktop\\ljhgtest.txt", sep='\s+')
X_test = test_data[["Sepal.Length", "Sepal.Width"]].values
y_test = test_data[["Species"]].values;

C = 1.0
degree = 2
tol = 0.001
max_iter = 1000

w, b = svm_fit(X_train, y_train, C, polynomial_kernel, degree, tol, max_iter)

predictions = predict(w, b, X_train, y_train, X_test, polynomial_kernel, degree)

cnt=0.0
for i, prediction in enumerate(predictions):
    if prediction == 1:
        ans='setosa'
    else :
        ans='versicolor'
    print(f"第{i}个数据{X_test[i]}预测结果为{ans},实际结果为{y_test[i]}")
    if ans==y_test[i]:
        cnt+=1

print(f"准确率为{cnt/len(predictions)}")

plt.rcParams['font.sans-serif'] = ['SimHei']
plt.figure(figsize=(10, 6))
plot_decision_boundary(X_train, y_train, w, b, polynomial_kernel, degree)
plt.title('SVM支持向量机')
plt.xlabel('Sepal Length')
plt.ylabel('Sepal Width')
plt.show()


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/697491.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

我在得物的这两年

写在前面 这篇文章非常简单&#xff0c;和大家简单聊聊我在得物的这两年&#xff0c;也是从学生到社会人的这两年。 我是2022年的6月加入得物实习&#xff0c;负责某个业务中台的后端研发&#xff0c;那一年我21岁&#xff0c;还在读大三&#xff0c;还在迷茫未来是读研还是工…

nw.js 如何调用activeX控件 (控件是C++编写的dll文件)

&#x1f3c6;本文收录于「Bug调优」专栏&#xff0c;主要记录项目实战过程中的Bug之前因后果及提供真实有效的解决方案&#xff0c;希望能够助你一臂之力&#xff0c;帮你早日登顶实现财富自由&#x1f680;&#xff1b;同时&#xff0c;欢迎大家关注&&收藏&&…

【氵】Archlinux+KDE Plasma 6+Wayland 安装nvidia驱动 / 开启HDR

参考: NVIDIA - Arch Linux 中文维基 &#xff08;其实就是把 wiki 简化了一下 注&#xff1a;本教程适用 GeForce 930 起、10 系至 20 系、 Quadro / Tesla / Tegra K-系列以及更新的显卡&#xff08;NV110 以及更新的显卡家族&#xff09;&#xff0c;此处以 RTX3060 为例 …

Cyber Weekly #10

赛博新闻 1、最强开源大模型面世&#xff1a;阿里发布Qwen2 6月7日凌晨&#xff0c;阿里巴巴通义千问团队发布了Qwen2系列开源模型。该系列模型包括5个尺寸的预训练和指令微调模型&#xff1a;Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B以及Qwen2-72B。据Qwen官方博客…

1.奖牌的数量

上海市计算机学会竞赛平台 | YACSYACS 是由上海市计算机学会于2019年发起的活动,旨在激发青少年对学习人工智能与算法设计的热情与兴趣,提升青少年科学素养,引导青少年投身创新发现和科研实践活动。https://www.iai.sh.cn/problem/447 题目描述 小爱获得了 𝑎a 枚金牌,…

MATLAB实现磷虾算法(Krill herd algorithm)

1.算法介绍 磷虾算法&#xff08;Krill Herd Algorithm, KH&#xff09;是一种基于生物启发的优化算法&#xff0c;其原理模拟了南极磷虾&#xff08;Euphausia superba&#xff09;群体的聚集行为。该算法旨在通过模拟磷虾个体间的相互作用、觅食行为和随机扩散&#xff0c;来…

springboot3一些听课笔记

文章目录 一、错误处理机制1.1 默认1.2 自定义 二、嵌入式容器 一、错误处理机制 1.1 默认 错误处理的自动配置都在ErrorMvcAutoConfiguration中&#xff0c;两大核心机制&#xff1a; ● 1. SpringBoot 会自适应处理错误&#xff0c;响应页面或JSON数据 ● 2. SpringMVC的错…

知识图谱的应用---智慧农业

文章目录 智慧农业典型应用 智慧农业 智慧农业通过生产领域的智能化、经营领域的差异性以及服务领域的全方位信息服务&#xff0c;推动农业产业链改造升级;实现农业精细化、高效化与绿色化&#xff0c;保障农产品安全、农业竞争力提升和农业可持续发展。目前&#xff0c;我国的…

第1章Hello world 4/5:对比Rust/Java/C++创建和运行Hello world全过程:运行第一个程序

讲动人的故事,写懂人的代码 1.7 对比Rust/Java/C++创建和运行Hello world全过程 有了会听懂人类的讲话,还能做记录的编程助理艾极思,他们三人的讨论内容,都可以变成一份详细的会议纪要啦。 接下来,我们一起看看艾极思是如何记录下赵可菲创建和运行Java程序Hello world,…

基于Java-SpringBoot-VUE-MySQL的高校数字化迎新管理系统

基于Java-SpringBoot-VUE-MySQL的高校数字化迎新管理系统 登陆界面 联系作者 如需本项目源代码&#xff0c;可扫码或者VX:bob1638联系作者。 首页图表 系统功能持续更新中。。。 介绍 这是一款主要用于高校迎新的系统&#xff0c;主要是采用了SpringBoot2.X VUE2.6 ElementUI2.…

怎么避免电脑磁盘数据泄露?磁盘数据保护方法介绍

电脑磁盘是电脑存储数据的基础&#xff0c;而为了避免磁盘数据泄露&#xff0c;我们需要保护电脑磁盘。下面我们就来了解一下磁盘数据保护的方法。 磁盘加密 磁盘加密可以通过专业的加密算法来加密保护磁盘数据&#xff0c;避免电脑磁盘数据泄露。在这里小编推荐使用文件夹只读…

App UI 风格,尽显魅力

精妙无比的App UI 风格

PawSQL优化 | 分页查询太慢?别忘了投影下推

​在进行数据库应用开发中&#xff0c;分页查询是一项非常常见而又至关重要的任务。但你是否曾因为需要获取总记录数的性能而感到头疼&#xff1f;现在&#xff0c;让PawSQL的投影下推优化来帮你轻松解决这一问题&#xff01;本文以TPCH的Q12为案例进行验证&#xff0c;经过Paw…

利用阿里云PAI平台微调ChatGLM3-6B

1.介绍ChatGLM3-6B ChatGLM3-6B大模型是智谱AI和清华大学 KEG 实验室联合发布的对话预训练模型。 1.1 模型规模 模型规模通常用参数数量&#xff08;parameters&#xff09;来衡量。参数数量越多&#xff0c;模型理论上越强大&#xff0c;但也更耗费资源。以下是一些典型模型…

类和对象(上续)

前言&#xff1a;本文介绍类和对象中的一些比较重要的知识点&#xff0c;为以后的继续学习打好基础。 目录 拷贝构造 拷贝构造的特征&#xff1a; 自定义类型的传值传参 自定义类型在函数中的传值返回 如果返回值时自定义的引用呢&#xff1f; 在什么情况下使用呢&#…

前端技术入门指南

引言 在数字化时代&#xff0c;前端开发成为了连接用户与数字世界的重要桥梁。无论你是对编程充满好奇的新手&#xff0c;还是想要拓展自己技能领域的在职人员&#xff0c;前端开发都是一个值得学习和探索的领域。本文将带你走进前端技术的世界&#xff0c;为你提供一个入门指…

前端nvm的安装和使用nodejs多版本管理2024

nvm的安装和使用 1、简介 nvm是一个管理nodejs版本的工具。在实际的开发中&#xff0c;项目的开发依赖需要的nodejs版本运行环境不同&#xff0c;此时我们就需要使用nvm来进行不同nodejs版本的切换。其实就是一个方便的node版本管理工具。 注意&#xff1a;如果有安装过node&a…

机器学习笔记——支持向量机

支持向量机 参数模型对分布需要假设&#xff08;这也是与非参数模型的区别之一&#xff09;间隔最大化&#xff0c;形式转化为凸二次规划问题 最大化间隔 间隔最大化是意思&#xff1a;对训练集有着充分大的确信度来分类训练数据&#xff0c;最难以分的点也有足够大的信度将…

文心一言 VS 讯飞星火 VS chatgpt (278)-- 算法导论20.3 5题

五、假设我们创建一个包含 u 1 k u^\frac{1}{k} uk1​ 个簇(而不是全域大小为 x ↓ {\sqrt[↓]{x}} ↓x ​ 的 x ↑ {\sqrt[↑]{x}} ↑x ​ 个簇)的 vEB 树&#xff0c;其每个簇的全域大小为 u 1 − 1 k u ^ {1-\frac{1}{k}} u1−k1​ &#xff0c;其中 k>1 &#xff0c…

AI如何创造情绪价值

随着科技的飞速发展&#xff0c;人工智能&#xff08;AI&#xff09;已经渗透到我们生活的方方面面。从智能家居到自动驾驶&#xff0c;从医疗辅助到金融服务&#xff0c;AI技术的身影无处不在。而如今&#xff0c;AI更是涉足了一个全新的领域——创造情绪价值。 AI已经能够处…