图解机器学习神器:Scikit-Learn

算法进阶

算法进阶

​​本文详解 Scikit-learn 工具库的用法,覆盖机器学习基础知识、SKLearn讲解、SKLearn三大核心API、SKLearn高级API等内容。

https://www.showmeai.tech/article-detail/203

我们在上一篇SKLearn入门与简单应用案例

[1]

里给大家讲到了 SKLearn 工具的基本板块与使用方法,在本篇内容中,我们展开讲解SKLearn的进阶与核心内容。SKLearn 中有六大任务模块,如下图所示:分别是分类回归聚类降维模型选择预处理

  • SKLearn官网:https://scikit-learn.org/stable/

    [2]
  • SKLearn的快速使用方法也推荐大家查看ShowMeAI的文章和速查手册AI建模工具速查|Scikit-learn使用指南

    [3]

在SKLearn中,因为做了上层的封装,分类模型、回归模型、聚类与降维模型、预处理器等等都叫做估计器(estimator),就像在Python里『万物皆对象』,在SKLearn里『万物皆估计器』。

在本篇内容中,我们将给大家进一步深入讲解scikit-learn工具库的使用方法,力求完整覆盖SKLearn工具库应用的方方面面。本文的内容板块包括:

  • 机器学习基础知识:机器学习定义与四要素:数据、任务、性能度量和模型。机器学习概念,以便和SKLearn对应匹配上。

  • SKLearn讲解:API设计原理,SKLearn几大特点:一致性、可检验、标准类、可组合和默认值,以及SKLearn自带数据以及储存格式。

  • SKLearn三大核心API讲解:包括估计器、预测器和转换器。这个板块很重要,大家实际应用时主要是借助于核心API落地。

  • SKLearn高级API讲解:包括简化代码量的流水线(Pipeline估计器),集成模型(Ensemble估计器)、有多类别-多标签-多输出分类模型(Multiclass 和 Multioutput 估计器)和模型选择工具(Model Selection估计器)。

1.机器学习简介

关于本节内容,强烈推荐大家阅读ShowMeAI文章图解机器学习 | 机器学习基础知识

[4]

图解机器学习 | 模型评估方法与准则

[5]

,ShowMeAI对相关知识内容展开做了详细讲解。

定义和构成元素

何为机器学习?大师汤姆米切尔(Tom Mitchell)对机器学习定义的原话是:

A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P if its performance at tasks in T, as measured by P, improves with experience E.

这段英文中有两个词computer program和learn,翻译成中文就是机器(计算机程序)和学习,整体翻译下来就是说:如果计算机程序在T任务上的性能(由P衡量)随着经验E而提高,则称计算机程序从经验E中学习某类任务T。

由上述机器学习的定义可知机器学习包含四个元素:

  • 数据(Data)

  • 任务(Task)

  • 性能度量(Quality Metric)

  • 算法(Algorithm)

数据

数据(data)是信息的载体。数据可以有以下划分方式:

  • 从『数据具体类型』维度划分:结构化数据和非结构化数据。

    • 结构化数据(structured data)是由二维表结构来逻辑表达和实现的数据。

    • 非结构化数据是没有预定义的数据,不便用数据库二维表来表现的数据。非结构化数据包括图片,文字,语音和视频等。

  • 从『数据表达形式』维度划分:原始数据和加工数据。

  • 从『数据统计性质』维度划分:样本内数据和样本外数据。

对于非结构数据,通常神经网络有更好的效果,可以参考 ShowMeAI 的文章Python机器学习算法实践

[6]

中的图像建模例子。

机器学习模型很多时候使用的是结构化数据,即二维的数据表。我们这里以 iris 花瓣数据集举例,如下图。

下面术语大家在深入了解机器学习前一定要弄清楚:

  • 每行的记录(这是一朵鸢尾花的数据统计),称为一个『样本(sample)』。

  • 反映样本在某方面的性质,例如萼片长度(Sepal Length)、花瓣长度(Petal Length),称为『特征(feature)』。

  • 特征上的取值,例如『样本1』对应的5.1、3.5称为『特征值(feature value)』。

  • 关于样本结果的信息,例如Setosa、Versicolor,称为『类别标签(class label)』。

  • 包含标签信息的示例,则称为『样例(instance)』,即样例=(特征,标签)

  • 从数据中学得模型的过程称为『学习(learning)』或『训练(training)』。

  • 在训练数据中,每个样例称为『训练样例(training instance)』,整个集合称为『训练集(training set)』。

任务

根据学习的任务模式(训练数据是否有标签),机器学习可分为几大类。上图画出机器学习各类之间的关系。

  • 监督学习(有标签)

  • 无监督学习(无标签)

  • 半监督学习(有部分标签)

  • 强化学习(有延迟的标签)

性能度量

回归和分类任务中最常见的误差函数以及一些有用的性能度量如下,详细内容可以参考ShowMeAI文章机器学习评估与度量准则

[7]

2. SKLearn数据

SKLearn作为通用机器学习建模的工具包,包含六个任务模块和一个数据导入模块:

  • 监督学习:分类任务

    [8]
  • 监督学习:回归任务

    [9]
  • 无监督学习:聚类任务

    [10]
  • 无监督学习:降维任务

    [11]
  • 模型选择任务

    [12]
  • 数据预处理任务

    [13]
  • 数据导入模块

    [14]

首先看看 SKLearn 默认数据格式和自带数据集。

SKLearn默认数据格式

Sklearn 里模型能直接使用的数据有两种形式:

  • Numpy二维数组(ndarray)的稠密数据(dense data),通常都是这种格式。

  • SciPy矩阵(scipy.sparse.matrix)的稀疏数据(sparse data),比如文本分析每个单词(字典有100000个词)做独热编码得到矩阵有很多0,这时用ndarray就不合适了,太耗内存。

自带数据集

SKLearn 里面有很多自带数据集供用户使用。

比如在之前文章Python机器学习算法实践中用到的鸢尾花数据集,包含四个特征(萼片长/宽和花瓣长/宽)和三个类别。

我们可以直接从SKLearn里面的datasets模块中引入,代码如下(代码可以在线上Jupyter环境

[15]

中运行):#导入工具库 fromsklearn.datasetsimportload_iris iris=load_iris() #数据是以『字典』格式存储的,看看 iris 的键有哪些。 iris.keys()

输出如下:

dict_keys(['data','target','target_names','DESCR','feature_names','filename'])

读取数据集的信息:

#输出iris 数据中特征的大小、名称等信息和前五个样本。 n_samples,n_features=iris.data.shape print((n_samples,n_features)) print(iris.feature_names) print(iris.target.shape) print(iris.target_names) iris.data[0:5]

输出如下:

(150,4) ['sepallength(cm)','sepalwidth(cm)','petallength(cm)','petalwidth(cm)'] (150,) ['setosa''versicolor''virginica'] array([[5.1,3.5,1.4,0.2], [4.9,3.,1.4,0.2], [4.7,3.2,1.3,0.2], [4.6,3.1,1.5,0.2], [5.,3.6,1.4,0.2]])

构建Dataframe格式的数据集:

#将X和y合并为Dataframe格式数据 importpandasaspd importseabornassns iris_data=pd.DataFrame(iris.data, columns=iris.feature_names) iris_data['species']=iris.target_names[iris.target] iris_data.head(3).append(iris_data.tail(3))

输出如下:

sepal length (cm)

sepal width (cm)

petal length (cm)

petal width (cm)

species

我们使用 seaborn 来做一些数据分析,查看一下数据的分布特性。这里使用到的是成对维度的关联分析,关于seaborn的使用方法可以参阅ShowMeAI的文章seaborn工具与数据可视化教程

[16]

#使用Seaborn的pairplot查看两两特征之间的关系 sns.pairplot(iris_data,hue='species',palette='husl')

数据集引入方式

前面提到的是鸢尾花iris数据集,我们通过load_iris加载进来,实际上SKLearn有三种引入数据形式。

  • 打包好的数据:对于小数据集,用sklearn.datasets.load_*

  • 分流下载数据:对于大数据集,用sklearn.datasets.fetch_*

  • 随机创建数据:为了快速展示,用sklearn.datasets.make_*

上面这个星号*指代具体文件名,如果大家在Jupyter这种IDE环境中,可以通过tab制表符自动补全和选择。

  • datasets.load_

  • datasets.fetch_

  • datasets.make_

比如我们调用load_iris

from sklearn import datasets datasets.load_iris

输出如下:

<functionsklearn.datasets.base.load_iris(return_X_y=False)>

我们调用load_digits加载手写数字图像数据集

digits=datasets.load_digits() digits.keys()

输出:

dict_keys(['data','target','target_names','images','DESCR'])

我们再来看看通过fetch拉取数据的示例:

#加州房屋数据集 california_housing=datasets.fetch_california_housing() california_housing.keys()

输出:

dict_keys(['data','target','feature_names','DESCR'])

3.SKLearn核心API

我们前面提到SKLearn里万物皆估计器。估计器是个非常抽象的叫法,不严谨的一个理解,我们可以视其为一个模型(用来回归、分类、聚类、降维),或一套流程(预处理、网格搜索交叉验证)。

本节三大API其实都是估计器:

  • 估计器(estimator)通常是用于拟合功能的估计器。

  • 预测器(predictor)是具有预测功能的估计器。

  • 转换器(transformer)是具有转换功能的估计器。

估计器

任何可以基于数据集对一些参数进行估计的对象都被称为估计器,它有两个核心点:

  • ① 需要输入数据。

  • ② 可以估计参数。

估计器首先被创建,然后被拟合。

  • 创建估计器:需要设置一组超参数,比如

    • 线性回归里超参数normalize=True

    • K均值里超参数n_clusters=5

  • 拟合估计器:需要训练集

    • 在监督学习中的代码范式为model.fit(X_train, y_train)

    • 在无监督学习中的代码范式为model.fit(X_train)

拟合之后可以访问model里学到的参数,比如线性回归里的特征系数coef,或K均值里聚类标签labels,如下(具体的可以在SKLearn文档的每个模型页查到)。

  • model.coef_

  • model.labels_

下面看看监督学习的『线性回归』和无监督学习的『K均值聚类』的具体例子。

(1) 线性回归

首先从SKLearn工具库的linear_model中引入LinearRegression;创建模型对象命名为model,设置超参数normalizeTrue(在每个特征值上做标准化,这样能保证拟合的稳定性,加速模型拟合速度)。

fromsklearn.linear_modelimportLinearRegression model=LinearRegression(normalize=True) model

输出:

LinearRegression(copy_X=True,fit_intercept=True,n_jobs=None,normalize=True)

创建完后的估计器会显示所有的超参数(比如刚才设置的normalize=True),未设置的超参数都使用默认值。

自己创建一个简单数据集(一条直线上的数据点),简单讲解一下估计器里面的特征。

importnumpyasnp importmatplotlib.pyplotasplt x=np.arange(10) y=2*x+1 plt.plot(x,y,'o')

在我们生成的数据里,X是一维,我们做一点小小的调整,用np.newaxis加一个维度,把[1,2,3]转成[[1],[2],[3]],这样的数据形态可以符合sklearn的要求。接着把X和y送入fit()函数来拟合线性模型的参数。

X=x[:,np.newaxis] model.fit(X,y)

输出为:

LinearRegression(copy_X=True,fit_intercept=True,n_jobs=None,normalize=True)

拟合完后的估计器和创建完似乎没有差别,但我们已经可以用model.param_访问到拟合完数据的参数了,如下代码。

print(model.coef_) print(model.intercept_) #输出结果 #[2.] #0.9999999999999982

(2) K均值

我们来看看聚类

[17]

的例子,先从SKLearn的cluster中导入KMeans,初始化模型对象命名为model,设置超参数n_cluster为3(为了展示方便而我们知道用的iris数据集有3类,实际上可以设置不同数量的n_cluster)。

虽然iris数据里包含标签y,但在无监督的聚类中我们不会使用到这个信息。

fromsklearn.clusterimportKMeans model=KMeans(n_clusters=3) model

输出为:

KMeans(algorithm='auto',copy_x=True,init='k-means++',max_iter=300, n_clusters=3,n_init=10,n_jobs=None,precompute_distances='auto', random_state=None,tol=0.0001,verbose=0)

iris数据集包含四维特征(萼片长、萼片宽、花瓣长、花瓣宽),在下面的例子中我们希望可视化,这里我们简单选取两个特征(萼片长、萼片宽)来做聚类并且可视化结果。

注意下面代码X = iris.data[:,0:2]其实就是提取特征维度。

fromsklearn.datasetsimportload_iris iris=load_iris() X=iris.data[:,0:2] model.fit(X)

输出为:

KMeans(algorithm='auto',copy_x=True,init='k-means++',max_iter=300, n_clusters=3,n_init=10,n_jobs=None,precompute_distances='auto', random_state=None,tol=0.0001,verbose=0)

拟合完后的估计器和创建完似乎没有差别,但我们已经可以用model.param_访问到拟合完数据的参数了,如下代码。

print(model.cluster_centers_,'\n') print(model.labels_,'\n') print(model.inertia_,'\n') print(iris.target) [[5.773584912.69245283] [6.812765963.07446809] [5.0063.428]] [2222222222222222222222222222222222222 2222222222222111010101000000100000000 1111000000001000000000000010111101111 1100111101010110011111001110111011101 10] 37.05070212765958 [0000000000000000000000000000000000000 0000000000000111111111111111111111111 1111111111111111111111111122222222222 2222222222222222222222222222222222222 22]

这里解释一下KMeans模型这几个参数:

  • model.clustercenters:簇中心。三个簇意味着有三个坐标。

  • model.labels_:聚类后的标签。

  • model.inertia_:所有点到对应的簇中心的距离平方和(越小越好)

小结

虽然上面以有监督学习的Linear Regression和无监督学习的KMeans举例,但实际上你可以将它们替换成其他别的模型,比如监督学习的Logistic Regression和无监督学习的DBSCAN。它们都是『估计器』,因此都有fit()方法。

使用它们的通用伪代码如下:

#有监督学习 fromsklearn.xxximportSomeModel #xxx可以是linear_model或ensemble等 model=SomeModel(hyperparameter) model.fit(X,y) #无监督学习 fromsklearn.xxximportSomeModel #xxx可以是cluster或decomposition等 model=SomeModel(hyperparameter) model.fit(X)

预测器

预测器是估计器做的一个延展,具备对数据进行预测的功能。

预测器最常见的是predict()函数:

  • model.predict(X_test):评估模型在新数据上的表现。

  • model.predict(X_train):确认模型在老数据上的表现。

为了进行新数据评估,我们先将数据分成80:20的训练集(X_train, y_train)和测试集(X_test, y_test),再用从训练集上拟合fit()的模型在测试集上预测predict()

fromsklearn.datasetsimportload_iris iris=load_iris() fromsklearn.model_selectionimporttrain_test_split X_train,X_test,y_train,y_test=train_test_split(iris['data'], iris['target'], test_size=0.2) print('ThesizeofX_trainis',X_train.shape) print('Thesizeofy_trainis',y_train.shape) print('ThesizeofX_testis',X_test.shape) print('Thesizeofy_testis',y_test.shape) ThesizeofX_trainis(120,4) Thesizeofy_trainis(120,) ThesizeofX_testis(30,4) Thesizeofy_testis(30,)

predict & predict_proba

对于分类问题,我们不仅想知道预测的类别是什么,有时我们还希望获取预测概率等信息。前者用predict(),后者用predict_proba()

y_pred=model.predict(X_test) p_pred=model.predict_proba(X_test) print(y_test,'\n') print(y_pred,'\n') print(p_pred)

score & decision_function

预测器里还有额外的两个函数可以使用。在分类问题中:

  • score()返回的是分类准确率。

  • decision_function()返回的是每个样例在每个类下的分数值。

print(model.score(X_test,y_test)) print(np.sum(y_pred==y_test)/len(y_test)) decision_score=model.decision_function(X_test) print(decision_score)

小结

估计器都有fit()方法,预测器都有predict()score()方法,言外之意不是每个预测器都有predict_proba()decision_function()方法,这个在用的时候查查官方文档就清楚了(比如RandomForestClassifier就没有decision_function()方法)。

使用它们的通用伪代码如下:

#有监督学习 fromsklearn.xxximportSomeModel #xxx可以是linear_model或ensemble等 model=SomeModel(hyperparameter) model.fit(X,y) y_pred=model.predict(X_new) s=model.score(X_new) #无监督学习 fromsklearn.xxximportSomeModel #xxx可以是cluster或decomposition等 model=SomeModel(hyperparameter) model.fit(X) idx_pred=model.predict(X_new) s=model.score(X_new)

转换器

转换器是一种估计器,也有拟合功能,对比预测器做完拟合来预测,转换器做完拟合来转换。核心点如下:

  • 估计器里fit + predict

  • 转换器里fit + transform

本节介绍两大类转换器:

  • 将类别型变量(categorical)编码成数值型变量(numerical)

  • 规范化(normalize)或标准化(standardize)数值型变量

(1) 类别型变量编码

① LabelEncoder&OrdinalEncoder

LabelEncoder和OrdinalEncoder都可以将字符转成数字,但是:

  • LabelEncoder的输入是一维,比如1d ndarray

  • OrdinalEncoder的输入是二维,比如 DataFrame

#首先给出要编码的列表 enc 和要解码的列表 dec。 enc=['red','blue','yellow','red'] dec=['blue','blue','red'] #从sklearn下的preprocessing中引入LabelEncoder,再创建转换器起名LE,不需要设置任何超参数。 fromsklearn.preprocessingimportLabelEncoder LE=LabelEncoder() print(LE.fit(enc)) print(LE.classes_) print(LE.transform(dec)) LabelEncoder() ['blue''yellow''red'] [012]

除了LabelEncoder,OrdinalEncoder也可以完成编码。如下代码所示:

fromsklearn.preprocessingimportOrdinalEncoder OE=OrdinalEncoder() enc_DF=pd.DataFrame(enc) dec_DF=pd.DataFrame(dec) print(OE.fit(enc_DF)) print(OE.categories_) print(OE.transform(dec_DF)) OrdinalEncoder(categories='auto',dtype=<class'numpy.float64'>) [array(['blue','yellow','red'],dtype=object)] [[0.] [1.] [2.]]

上面这种编码的问题是,在编码过后会带来不同类别的大小关系,比如这里3种颜色其实本质上是平等的,没有大小关系。

我们的另外一种类别型数据编码方式,独热向量编码(one-hot encoding)可以解决这个问题,大家继续往下看。

② OneHotEncoder

独热向量编码其实就是把一个整数用向量的形式表现。上图右侧就是对颜色做独热向量编码。转换器OneHotEncoder可以接受两种类型的输入:

  • ① 用LabelEncoder编码好的一维数组

  • ② DataFrame

一、用LabelEncoder编码好的一维数组(元素为整数),重塑(用reshape(-1,1))成二维数组作为OneHotEncoder输入

fromsklearn.preprocessingimportOneHotEncoder OHE=OneHotEncoder() num=LE.fit_transform(enc) print(num) OHE_y=OHE.fit_transform(num.reshape(-1,1)) OHE_y [2012]

输出为:

<4x3sparsematrixoftype'<class'numpy.float64'>' with4storedelementsinCompressedSparseRowformat>

上面结果解释如下:

  • 第3行打印出编码结果[2 0 1 2]。

  • 第5行将其转成独热形式,输出是一个『稀疏矩阵』形式,因为实操中通常类别很多,因此就一步到位用稀疏矩阵来节省内存。

想看该矩阵里具体内容,用toarray()函数。

OHE_y.toarray()

输出为:

array([[0.,0.,1.], [1.,0.,0.], [0.,1.,0.], [0.,0.,1.]])

二、用DataFrame作为OneHotEncoder输入

OHE=OneHotEncoder() OHE.fit_transform(enc_DF).toarray()

输出为:

array([[0.,0.,1.], [1.,0.,0.], [0.,1.,0.], [0.,0.,1.]])

(2) 特征缩放

数据要做的最重要的转换之一是特征缩放(feature scaling)。类似逻辑回归,神经网络这种计算型模型,对于不同特征的幅度大小差异是敏感的。

具体来说,对于某个特征,我们有两种变换方法:

  • 标准化(standardization):每个维度的特征减去该特征均值,除以该维度的标准差。

  • 规范化(normalization):每个维度的特征减去该特征最小值,除以该特征的最大值与最小值之差。

① MinMaxScaler

如上图所示,MinMaxScaler会根据特征的最大最小取值,对数据进行幅度缩放。

fromsklearn.preprocessingimportMinMaxScaler X=np.array([0,0.5,1,1.5,2,100]) X_scale=MinMaxScaler().fit_transform(X.reshape(-1,1)) X_scale

输出为:

array([[0.], [0.005], [0.01], [0.015], [0.02], [1.]])

② StandardScaler

StandardScaler做的事情是调整数据分布,尽量接近正态分布。

fromsklearn.preprocessingimportStandardScaler X_scale=StandardScaler().fit_transform(X.reshape(-1,1)) X_scale

输出为:

array([[-0.47424487], [-0.46069502], [-0.44714517], [-0.43359531], [-0.42004546], [2.23572584]])

注意:fit()函数只能作用在训练集上,如果希望对测试集变换,只要用训练集上fit好的转换器去transform即可。不能在测试集上fit再transform,否则训练集和测试集的变换规则不一致,模型学习到的信息就无效了。

4.高级API

我们在这节中给大家介绍SKLearn的『高级API』,即五大元估计器(集成功能的Ensemble,多分类和多标签的Multiclass,多输出的Multioutput,选择模型的Model Selection,流水线的Pipeline)。

  • ensemble.BaggingClassifier

  • ensemble.VotingClassifier

  • multiclass.OneVsOneClassifier

  • multiclass.OneVsRestClassifier

  • multioutput.MultiOutputClassifier

  • model_selection.GridSearchCV

  • model_selection.RandomizedSearchCV

  • pipeline.Pipeline

Ensemble 估计器

如上图:分类器统计每个子分类器的预测类别数,再用『多数投票』原则得到最终预测。回归器计算每个子回归器的预测平均值。

最常用的Ensemble估计器排列如下:

  • AdaBoostClassifier:逐步提升分类器

  • AdaBoostRegressor:逐步提升回归器

  • BaggingClassifier:Bagging分类器

  • BaggingRegressor:Bagging回归器

  • GradientBoostingClassifier:梯度提升分类器

  • GradientBoostingRegressor:梯度提升回归器

  • RandomForestClassifier:随机森林分类器

  • RandomForestRegressor:随机森林回归器

  • VotingClassifier:投票分类器

  • VotingRegressor:投票回归器

我们用鸢尾花数据iris,拿以下estimator来举例:

  • 含同质估计器RandomForestClassifier

  • 含异质估计器VotingClassifier

首先将数据分成80:20的训练集和测试集,并引入metrics来计算各种性能指标。

fromsklearn.datasetsimportload_iris iris=load_iris() fromsklearn.model_selectionimporttrain_test_split fromsklearnimportmetrics X_train,X_test,y_train,y_test=train_test_split(iris['data'],iris['target'],test_size=0.2)

(1) RandomForestClassifier

随机森林RandomForestClassifier通过控制n_estimators超参数来决定基估计器的个数,在这里是4棵决策树(森林由树组成);此外每棵树的最大树深为5(max_depth=5)。

fromsklearn.ensembleimportRandomForestClassifier RF=RandomForestClassifier(n_estimators=4,max_depth=5) RF.fit(X_train,y_train)

输出为:

RandomForestClassifier(bootstrap=True,class_weight=None,criterion='gini', max_depth=5,max_features='auto',max_leaf_nodes=None, min_impurity_decrease=0.0,min_impurity_split=None, min_samples_leaf=1,min_samples_split=2, min_weight_fraction_leaf=0.0,n_estimators=4, n_jobs=None,oob_score=False,random_state=None, verbose=0,warm_start=False)

元估计器和预估器一样也有fit()。下面看看随机森林里包含的估计器个数和其本身。

print(RF.n_estimators) RF.estimators_

输出为:

4 [DecisionTreeClassifier(class_weight=None,criterion='gini',max_depth=5, max_features='auto',max_leaf_nodes=None, min_impurity_decrease=0.0,min_impurity_split=None, min_samples_leaf=1,min_samples_split=2, min_weight_fraction_leaf=0.0,presort=False, random_state=705712365,splitter='best'), DecisionTreeClassifier(class_weight=None,criterion='gini',max_depth=5, max_features='auto',max_leaf_nodes=None, min_impurity_decrease=0.0,min_impurity_split=None, min_samples_leaf=1,min_samples_split=2, min_weight_fraction_leaf=0.0,presort=False, random_state=1026568399,splitter='best'), DecisionTreeClassifier(class_weight=None,criterion='gini',max_depth=5, max_features='auto',max_leaf_nodes=None, min_impurity_decrease=0.0,min_impurity_split=None, min_samples_leaf=1,min_samples_split=2, min_weight_fraction_leaf=0.0,presort=False, random_state=1987322366,splitter='best'), DecisionTreeClassifier(class_weight=None,criterion='gini',max_depth=5, max_features='auto',max_leaf_nodes=None, min_impurity_decrease=0.0,min_impurity_split=None, min_samples_leaf=1,min_samples_split=2, min_weight_fraction_leaf=0.0,presort=False, random_state=1210538094,splitter='best')]

拟合RF完再做预测,用metrics里面的accuracy_score来计算准确率。训练准确率98.33%,测试准确率100%。

print("RF-Accuracy(Train):%.4g"% metrics.accuracy_score(y_train,RF.predict(X_train))) print("RF-Accuracy(Test):%.4g"% metrics.accuracy_score(y_test,RF.predict(X_test))) RF-Accuracy(Train):1 RF-Accuracy(Test):0.9667

(2) VotingClassifier

和随机森林由同质分类器『决策树』不同,投票分类器由若干个异质分类器组成。下面我们用VotingClassifier建立个含有逻辑回归(Logistic regression)、随机森林(RandomForest)和高斯朴素贝叶斯(GNB)三个分类器的集成模型。

RandomForestClassifier的基分类器只能是决策树,因此只用通过控制n_estimators超参数来决定树的个数,而VotingClassifier的基分类器要输入每个异质分类器。

fromsklearn.linear_modelimportLogisticRegression fromsklearn.naive_bayesimportGaussianNB fromsklearn.ensembleimportRandomForestClassifier fromsklearn.ensembleimportVotingClassifier LR=LogisticRegression(solver='lbfgs',multi_class='multinomial') RF=RandomForestClassifier(n_estimators=5) GNB=GaussianNB() Ensemble=VotingClassifier(estimators=[('lr',LR),(‘rf',RF),('gnb',GNB)],voting='hard') Ensemble.fit(X_train,y_train)

结果如下:

VotingClassifier(estimators=[('lr',LogisticRegression(C=1.0,class_weight=None,dual=False,fit_intercept=True,intercept_scaling=1,max_iter=100,multi_class='multinomial',n_jobs=None,penalty='12',random_state=None,solver='lbfgs',tol=0.0001,verbose=6,warm_start=False)),('rf',...e,verbose=0,warm_start=False)),('gnb',GaussianNB(priors=None,var_smoothing=1e-09))],flatten_transform=None,n_jobs=None,voting='hard',weights=None)

看看Ensemble集成模型里包含的估计器个数和其本身。

print(len(Ensemble.estimators_)) Ensemble.estimators_

结果如下:

3 [LogisticRegression(C=1.0,class_weight-None,dual-False,fit_intercept=True,intercept_scaling=1,max_iter=100,multi_class='multinomial',n_jobs-None,penalty="12",random_state-None,solver='1bfgs',t01=0.0001,verbose=0,warm_start=False), RandomForestClassifier(bootstrap=True,class_weight=None,criterion='gini',max_depth=None,max_features='auto',max_leaf_nodes=None,min_impurity_decrease-0.0,min_impurity_splitmin_samples_leaf=1,min_samples_split=2,min_weight_fraction_leaf=0.0,n_estimator:oob_score=False,random_state-None,verbose= warm_start=False), GaussianNB(priors-None,var_smoothing=1e-9)]

对比元估计器和它三个组成元素的表现,下过表现如下:

#拟合 LR.fit(X_train,y_train) RF.fit(X_train,y_train) GNB.fit(X_train,y_train) #评估效果 print("LR-Accuracy(Train):%.4g"%metrics.accuracy_score(y_train,LR.predict(X_train))) print("RF-Accuracy(Train):%.4g"%metrics.accuracy_score(y_train,RF.predict(X_train))) print("GNB-Accuracy(Train):%.4g"%metrics.accuracy_score(y_train,GNB.predict(X_train))) print("Ensemble-Accuracy(Train):%.4g"%metrics.accuracy_score(y_train,Ensemble.predict(X_train))) print("LR-Accuracy(Test):%.4g"%metrics.accuracy_score(y_test,LR.predict(X_test))) print("RF-Accuracy(Test):%.4g"%metrics.accuracy_score(y_test,RF.predict(x_test))) print("GNB-Accuracy(Test):%.4g"%metrics.accuracy_score(y_test,RF.predict(X_test))) print("Ensemble-Accuracy(Test):%.4g"%metrics.accuracy_score(ytest,Ensemble.predict(X_test))) #运行结果 LR-Accuracy(Train):0.975 RF-Accuracy(Train):0.9833 GNB-Accuracy(Train):0.95 Ensemble-Accuracy(Train):0.9833 LR-Accuracy(Test):1 RF-Accuracy(Test):1 GNB-Accuracy(Test):1 Ensemble-Accuracy(Test):1

Multiclass 估计器

sklearn.multiclass可以处理多类别(multi-class) 的多标签(multi-label) 的分类问题。下面我们会使用数字数据集digits作为示例数据来讲解。我们先将数据分成 80:20 的训练集和测试集。

#导入数据 fromsklearn.datasetsimportload_digits digits=load_digits() digits.keys()

输出如下:

#输出结果 dict_keys(['data','target','target_names','images','DESCR'])

下面我们切分数据集:

#数据集切分 X_train,X_test,y_train,y_test=train_test_split(digits['data'],digits['target'],test_size=0.2) print('ThesizeofX_trainis',X_train.shape) print('Thesizeofy_trainis',y_train.shape) print('ThesizeofX_testis',X_test.shape) print('Thesizeofy_testis',y_test.shape)

输出如下

ThesizeofX_trainis(1437,64) Thesizeofy_trainis(1437,) ThesizeofX_testis(360,64) Thesizeofy_testis(360,)

训练集和测试集分别有1437和360张图像。每张照片是包含8×8的像素,我们用flatten操作把2维的8×8展平为1维的64。

看看训练集中前100张图片和对应的标签(如下图)。像素很低,但基本上还是能看清。

fig,axes=plt.subplots(10,16,figsize=(8,8)) fig.subplots_adjust(hspace=0.1,wspace=0.1) fori,axinenumerate(axes.flat): ax.imshow(X_train[i,:].reshape(8,8),cmap='binary’,interpolation='nearest’) ax.text(0.05,0.05,str(y_train[i]), transform=ax.transAxes,color='blue') ax.set_xticks([]) ax.set_yticks([])

(1) 多类别分类

手写数字有0-9十类,但手头上只有二分类估计器(比如像支撑向量机)怎么用呢?我们可以采取以下策略处理:

  • 一对一(One vs One,OvO):一个分类器用来处理数字0和数字1,一个用来处理数字0和数字2,一个用来处理数字1和2,以此类推。N个类需要N(N-1)/2个分类器。

  • 一对其他(One vs All,OvA):训练10个二分类器,每一个对应一个数字,第一个分类『1』和『非1』,第二个分类『2』和『非2』,以此类推。N个类需要N个分类器。

① OneVsOneClassifier

考虑一个具体天气多分类问题,天气可以是晴天、阴天和雨天,在OvO中,三个分类器为f1、f2和f3。

  • f1负责区分橙色和绿色样本

  • f2负责区分橙色和紫色样本

  • f3负责区分绿色和紫色样本

在下图的例子中,f1和f2都预测为橙色,f3预测为紫色。根据多数原则得到的结合预测为橙色,如下图所示。

回到数字分类问题上,代码及结果如下:

fromsklearn.multiclassimportOneVsOneClassifier fromsklearn.linear_modelimportLogisticRegression ovo_lr=OneVsOneClassifier(LogisticRegression(solver='lbfgs',max_iter=200)) ovo_lr.fit(X_train,y_train) OnevsOneClassifier(estimator=LogisticRegression(C=1.0,class_weight=None,dual=False,fit_intercept=True,intercept_scaling=1,max_iter=200,multi_class=‘warn’,n_jobs=None,penalty='12',random_state=None,solver='lbfgs’,tol=0.0001,verbose=6,warm_start=False),n_jobs=None)

10*9/2=45,10类总共45个OvO分类器。

print(len(ovo_lr.estimators_)) ovo_lr.estimators_

结果如下:

45 (LogisticRegression(C=1.0,class_weight=None,dual=False,fit_intercept=True,intercept_scaling=1,max_iter=200,multi_class='warn',n_jobs=None,penalty='12',random_state=None,solver='lbfgs',tol=60.0001,verbose=0,warm_start=False), LogisticRegression(C=1.0,class_weight=None,dual=False,fit_intercept=True,intercept_scaling=1,max_iter=200,multi_class='warn',n_jobs=None,penalty='l2',random_state=None,solver='lbfgs',tol=0.0001,verbose=0,warm_start=False), LogisticRegression(C=1.0,class_weight=None,dual=False,fit_intercept=True,intercept_scaling=1,max_iter=200,multi_class='warn',n_jobs=None,penalty='12',random_state=None,solver='lbfgs',tol=60.0001,verbose=0,warm_start=False), LogisticRegression(C=1.0,class_weight=None,dual=False,fit_intercept=True,intercept_scaling=1,max_iter=200,multi_class='warn',n_jobs=None,penalty="12",random_state=None,solver='lbfgs',tol=0.0001,verbose=0,warm_start=False), LogisticRegression(C=1.0,class_weight=None,dual=False,fit_intercept=True, ...

训练集分类全对,测试集准确率98%。

print(“OvOLR-Accuracy(Train):%.4g"%metrics.accuracy_score(y_train,ovo_Ir.predict(X_train))) print("OvOLR-Accuracy(Test):%.4g"%metrics.accuracy_score(y_test,ovo_lr.predict(X_test})) #运行结果 OvOLR-Accuracy(Train):1 OvOLR-Accuracy(Test):0.9806

② OneVsRestClassifier

在OvA中,把数据分成“某个”和“其他”

  • 图一,某个=橙色,其他=绿色和紫色

  • 图二,某个=绿色,其他=橙色和紫色

  • 图三,某个=紫色,其他=橙色和绿色

三分类分解成三个二分类,对应的分类器为f1、f2和f3。

  • f1预测负类,即预测绿色和紫色

  • f2预测负类,即预测橙色和紫色

  • f3预测正类,即预测紫色

三个分类器都预测了紫色,根据多数原则得到的预测是紫色,即阴天。

回到数字分类问题上,代码和结果如下:

fromsklearn.multiclassimportOneVsRestClassifier ova_lr=OneVsRestClassifier(LogisticRegression(solver='lbfgs',max_iter=800)) ova_lr.fit(X_train,y_train) OnevsRestClassifier(estimator=LogisticRegression(C=1.0,class_weight=None,dual=False,fit_intercept=True,intercept_scaling=1,max_iter=800,multi_class=‘warn’,n_jobs=None,penalty='12',random_state=None,solver='lbfgs’,tol=0.0001,verbose=6,warm_start=False),n_jobs=None)

10类总共10个OvA分类器。

print(len(ova_lr.estimators_)) ova_lr.estimators_

结果如下:

10 [LogisticRegression(C=1.0,class_weight=None,dual=False,fit_intercept=True,intercept_scaling=1,max_iter=800,multi_class='warn',n_jobs=None,penalty='12',random_state=None,solver='lbfgs',tol=0.0001,verbose=0,warm_start=False), LogisticRegression(C=1.0,class_weight=None,dual=False,fit_intercept=True,intercept_scaling=1,max_iter=800,multi_class='warn',n_jobs=None,penalty='12',random_state=None,solver='lbfgs',tol=0.0001,verbose=0,warm_start=False), LogisticRegression(C=1.0,class_weight=None,dual=False,fit_intercept=True, intercept_scaling=1,max_iter=800,multi_class=‘warn', n_jobs=None,penalty='12',random_state=None,solver="lbfgs', tol=0.0001,verbose=0,warm_start=False), LogisticRegression(C=1.0,class_weight=None,dual=False,fit_intercept=True, intercept_scaling=1,max_iter=800,multi_class='warn',n_jobs=None,penalty='12',random_state=None,solver='lbfgs',tol=0.0001,verbose=0,warm_start=False), LogisticRegression(C=1.0,class_weight=None,dual=False,fit_intercept=True, ...

训练集准确率几乎100%,测试集准确率96%。代码与结果如下:

print(“OvALR-Accuracy(Train):%.4g"%metrics.accuracy_score(y_train,ova_Ir.predict(X_train))) print("OvALR-Accuracy(Test):%.4g"%metrics.accuracy_score(y_test,ova_lr.predict(X_test})) OvALR-Accuracy(Train):6.9993 OvALR-Accuracy(Test}:6.9639

(2) 多标签分类

到目前为止,所有的样例都总是被分配到仅一个类。有些情况下,你也许想让分类器给一个样例输出多个类别。在无人驾驶的应用中,在下图识别出有车和指示牌,没有交通灯和人。

物体识别是一个复杂的深度学习问题,我们在这里暂且不深入探讨。我们先看一个简单点的例子,在手写数字的例子上,我们特意为每个数字设计了两个标签:

  • 标签1:奇数、偶数

  • 标签2:小于等于4,大于4

我们构建多标签y_train_multilabel,代码如下(OneVsRestClassifier也可以用来做多标签分类):

fromsklearn.multiclassimportOneVsRestClassifier y_train_multilabel=np.c_[y_train%2==0,y_train<=4] print(y_train_multilabel) [[TrueTrue][FalseFalse][FalseFalse] ... [FalseFalse][FalseFalse][FalseFalse]]

看下图训练集第1和2个图片是数字4和5,对应上面两种标签结果为:

  • [True True]:4是偶数,小于等于4

  • [False False]:5不是偶数,大于4

我们这次用y_train_multilabel来训练模型。代码如下

ova_ml=OneVsRestClassifier(LogisticRegression(solver='lbfgs',max_iter=800)) ova_ml.fit(X_train,y_train_multilabel) #运行结果 OnevsRestClassifier(estimator=LogisticRegression(C=1.0,class_weight=None,dual=False,fit_intercept=True,intercept_scaling=1,max_iter=800,multi_class=‘warn’,n_jobs=None,penalty='12',random_state=None,solver='lbfgs',tol=0.0001,verbose=6,warm_start=False),n_jobs=None)

有两个估计器,每个对应一个标签。

print(len(ova_ml.estimators_)) ova_ml.estimators_

运行结果如下:

2 [LogisticRegression(C=1.0,class_weight=None,dual=False,fit_intercept=True,intercept_scaling=1,max_iter=800,multi_class=‘warn',n_jobs=None,penalty='12°,random_state=None,solver='lbfgs',tol=0.0001,verbose=0,warm_start=False), LogisticRegression(C=1.0,class_weight=None,dual=False,fit_intercept=True,intercept_scaling=1,max_iter=800,multi_class='warn',n_jobs=None,penalty='l2',random_state=None,solver='lbfgs',tol=0.0001,verbose=0,warm_start=False)]

展示一下测试集上100张图片。

fig,axes=plt.subplots(10,10,figsize=(8,8)) fig.subplots_adjust(hspace=0.1,wspace=0.1) fori,axinenumerate(axes.flat): ax.imshow(X_test[i,:].reshape(8,8),cmap='binary',interpolation='nearest') ax.text(6.05,0.05,str(y_test[i]),transform=ax.transAxes,color='blue') ax.set_xticks([]) ax.set_yticks([])

第一张图片是数字2,它是偶数(标签1为true),小于等于4(标签2为true)。

print(y_test[:1]) print(ova_ml.predict(X_test[:1,:])) [2] [[11]]

Multioutput 估计器

sklearn.multioutput可以处理多输出(multi-output)的分类问题。

多输出分类是多标签分类的泛化,在这里每一个标签可以是多类别(大于两个类别)的。一个例子就是预测图片每一个像素(标签)的像素值是多少(从0到255的256个类别)。

Multioutput估计器有两个:

  • MultiOutputRegressor:多输出回归

  • MultiOutputClassifier:多输出分类

这里我们只关注多输出分类。

(1) MultiOutputClassifier

首先引入MultiOutputClassifier和RandomForestClassifier。

fromsklearn.multioutputimportMultiOutputClassifier fromsklearn.ensembleimportRandomForestClassifier

在手写数字的例子上,我们也为特意每个数字设计了多标签而且每个标签的类别都大于二。

  • 标签1:小于等于4,4和7之间,大于等于7(三类)

  • 标签2:数字本身(十类)

代码如下:

y_train_1st=y_train.copy() y_train_1st[y_train<=4]=0 y_train_1st[np.logical_and{y_train>4,y_train<7)]=1 y_train_ist[y_train>=7]=2 y_train_multioutput=np.c_[y_train_1st,y_train] y_train_multioutput #运行结果 array([[0,4], [1,5], [2,7], [1,5], [2,9], [2,9]])

用含有100棵决策树的随机森林来解决这个多输入分类问题。

MO=MultiOutputClassifier(RandomForestClassifier(n_estimators=100)) MO.fit(X_train,y_train_multioutput) #结果 MultiOutputClassifier(estimator=RandomForestClassifier(bootstrap=True,class_weight=None,criterion='gini',max_depth=None,max_features='auto',max_leaf_nodes=None,min_impurity_decrease=0.0,min_impurity_split=None,min_samples_leaf=1,min_samples_split=2,min_weight_fraction_leaf=0.0,n_estimators=100,n_jobs=None,oob_score=False,random_state=None,verbose=0,warm_start=False),n_jobs=None)

看看这个模型在测试集前五张照片上的预测。

MO.predict(X_test[:5,:]) array([[0,2],[0,2],[0,0],[2,9],[1,5]])

这个ndarray第一列是标签1的类别,第二列是标签2的类别。预测结果是这五张照片分别显示数字2、2、0、9、5(标签2),它们前三个数2、2、0都小于等于4(标签1第一类),第四个数9大于等于7(标签1第二类),而第五个数5在4和7之间(标签1第三类)。

再看看真实标签。

y_test_1st=y_test.copy() y_test_1st[y_test<=4]=0 y_test_1st[np.logical_and(y_test>4,y_test<7)]=1 y_test_1st[y_test>=7]=2 y_test_multioutput=np.c_[y_test_1st,y_test] y_test_multioutput[:5] array([[0,2],[0,2],[0,0],[2,9],[1,5]])

对比参考结果标签,模型预测的结果还是很不错的。

Model Selection 估计器

模型选择(Model Selction)在机器学习非常重要,它主要用于评估模型表现,常见的Model Selection估计器有以下几个:

  • cross_validate:评估交叉验证的结果。

  • learning_curve:构建与绘制学习曲线。

  • GridSearchCV:用交叉验证从超参数候选网格中搜索出最佳超参数。

  • RandomizedSearchCV:用交叉验证从一组随机超参数搜索出最佳超参数。

这里我们只关注调节超参数的两个估计器,即GridSearchCVRandomizedSearchCV。我们先回顾一下交叉验证(更详细的讲解请查看ShowMeAI文章 图解机器学习 | 模型评估方法与准则)。

(1) 交叉验证

K-折交叉验证(K-fold cross validation set),指的是把整个数据集平均但随机分成K份,每份大概包含m/K个数据(m 是总数据数)。

在这K份,每次选K-1份作为训练集拟合参数,在剩下1份验证集上进行评估计算。由于遍历了这K份数据,因此该操作称为交叉验证。操作如下图所示

下图展示了两个调参的估计器:『网格搜索』和『随机搜索』。

网格搜索调参:参数1在[1,10,100,1000]中取值,参数2在[0.01, 0.1, 1 10] 中取值,注意并不是等间距取值。模型在所有16组超参数上实验,选取交叉验证误差最小的参数。

随机搜索调参:根据指定分布随机搜索,可以选择独立于参数个数,比如log(参数1)服从0到3的均匀分布,log(参数2)服从-2到1的均匀分布。

应用方式与参考代码如下:

fromtimeimporttime fromscipy.statsimportrandint fromsklearn.model_selectionimportGridSearchCv fromsklearn.model_selectionimportRandomizedSearchcCv fromsklearn.ensembleimportRandomForestClassifier X,y=digits.data,digits.target RFC=RandomForestClassifier(n_estimators=20) #随机搜索/RandomizedSearch param_dist={"max_depth":[3,5], "max_features":randint(1,11), "min_samples_split":randint(2,11), "criterion":["gini","entropy"]} n_iter_search=20 random_search=RandomizedSearchCv(RFC,param_distributions=param_dist,n_iter=n_iter_search,cv=5)} start=time() random_search.fit(X,y) print("RandomizedSearchCvtook%.2fsecondsfor%dcandidates,parametersettings."%((time()-start),n_iter_search)) print(random_search.best_params_) print(random_search.best_score_) #网格搜索/GridSearch param_grid={"max_depth":[3,5], "max_features":[1,3,10], "min_samples_split":[2,3,10], "criterion":["gini","entropy"]} grid_search=GridSearchCV(RF,param_grid=param_grid,cv=5) start=time() grid_search.fit(X,y) print("\nGridSearchcvtook%.2fsecondsfor%dcandidateparametersettings."%(time()-start,len(grid_search.cv_results_['params']))) print(grid_search.best_params_) print(grid_search.best_score_)

输出结果如下:

RandomizedSearchCvtook3.73secondsfor20candidatesparametersettings. {'criterion':'entropy','*max_depth':5,'max_features':6,'min_samples_split':4} 0.8898163606010017 GridSearchCVtook2.30secondsfor36candidateparametersettings. {'criterion':'entropy','max_depth':5,'max_features':10,'min_samples_split':10} 0.841402337228714S5

这里我们对代码做一个解释:

  • 前5行引入相应工具库。

  • 第7-8行准备好数据X和y,创建一个含20个决策树的随机森林模型。

  • 第10-14和23-27行为对随机森林的超参数『最大树深、最多特征数、最小可分裂样本数、分裂标准』构建候选参数分布与参数网格。

  • 第15-18行是运行随机搜索

  • 第18-30行是运行网格搜索

运行结果里:

  • 第一行输出每种追踪法运行的多少次和花的时间。

  • 第二行输出最佳超参数的组合。

  • 第三行输出最高得分。

在本例中,随机搜索网格搜索用更短时间内找到一组超参数,获得了更高的得分。

Pipeline 估计器

Pipeline估计器又叫流水线,把各种估计器串联(Pipeline)或并联(FeatureUnion)的方式组成一条龙服务。用好了它真的能大大提高效率。

(1) Pipeline

Pipeline将若干个估计器按顺序连在一起,比如:特征提取 → 降维 → 拟合 → 预测

Pipeline的属性永远和最后一个估计器属性一样:

  • 如果最后一个估计器是预测器,那么Pipeline是预测器。

  • 如果最后一个估计器是转换器,那么Pipeline是转换器。

下面是一个简单示例,使用Pipeline来完成『填补缺失值-标准化』这两步的。我们先构建含缺失值NaN的数据X。

X=np.array([[56,40,30,5,7,10,9,np.NaN,12], [1.68,1.83,1.77,np.NaN,1.9,1.65,1.88,np.NaN,1.75]]) X=np.transpose(X)

我们用以下流程组件构建Pipeline:

  • 处理缺失值的转换器SimpleImputer。

  • 做规划化的转换器MinMaxScaler。

fromsklearn.pipelineimportPipeline fromsklearn.imputeimportSimpleImputer fromsklearn.preprocessingimportMinMaxScaler pipe=Pipeline([ ('impute',SimpleImputer(missing_values=np.nan,strategy='mean')), ('normalize',MinMaxScaler())])

第5-7行创建了流水线,使用方式非常简单,在Pipeline()里输入(名称,估计器)这个元组构建的流水线列表。在本例中SimpleImputer起名叫impute,MinMaxScaler起名叫normalize。

因为最后一个估计器是转换器,因此pipeline也是个转换器。下面我们来运行一下,我们发现值都被填满了,而且两列也被标准化了。

X_proc=pipe.fit_transform(X)

来验证上面流水线的参数,我们可以按顺序来运行这两个转换器,结果是一样的。

X_impute=SimpleImputer(missingvalues=np.nan,strategy='mean').fit_transform(X) X_impute #运行结果 array([[50,1.68], [40,1.83], [30,1.77], [5,1.78], [7,1.9], [10,1.65], [9,1.88], [20.375,1.78], [12,1.75]]) X_normalize=MinMaxScaler().fit_transform(X_impute) X_normalize

运行结果

array([[1.,0.12], [0.77777778,0.72], [0.55555556,6.48], [0.52,1], [0.04444444,1.], [0.11111111,9.], [0.08888889,6.92], [0.34166667,6.52], [0.15555556,0.4]])

(2) FeatureUnion

如果我们想在一个节点同时运行几个估计器,我们可用FeatureUnion。在下面的例子中,我们首先建立一个DataFrame数据,它有如下特点:

  • 前两列字段『智力IQ』和『脾气temper』都是类别型变量。

  • 后两列字段『收入income』和『身高height』都是数值型变量。

  • 每列中都有缺失值。

d={'IQ':['high','avg','avg','low',high',avg','high','high',None], 'temper':['good',None,'good','bad','bad','bad','bad',None,'bad'], 'income':[50,40,30,5,7,10,9,np.NaN,12], 'height':[1.68,1.83,1.77,np.NaN,1.9,1.65,1.88,np.NaN,1.75]} X=pd.DataFrame(d) X

结果如下:

我们现在按下列步骤来清洗数据。

  • 对类别型变量:获取数据 → 中位数填充 → 独热编码

  • 对数值型变量:获取数据 → 均值填充 → 标准化

上面两步是并行进行的。

首先我们自己定义一个从DataFrame里面获取数据列的类,起名叫DataFrameSelector

fromsklearn.baseimportBaseEstimator,TransformerMixin classDataFrameSelector(BaseEstimator,TransformerMixin): def_init_(self,attribute_names): self.attribute_names=attribute_names deffit(self,X,y=None): returnself deftransform(self,X): returnX[self.attribute_names].values

上述代码在transform函数中,我们将输入的DataFrame X根据属性名称来获取其值。

接下来建立流水线full_pipe,它并联着两个流水线

  • categorical_pipe处理分类型变量

    • DataFrameSelector用来获取

    • SimpleImputer用出现最多的值来填充None

    • OneHotEncoder来编码返回非稀疏矩阵

  • numeric_pipe处理数值型变量

    • DataFrameSelector用来获取

    • SimpleImputer用均值来填充NaN

    • normalize来规范化数值

代码如下:

fromsklearn.pipelineimportPipeline fromsklearn.pipelineimportFeatureUnion fromsklearn.imputeimportSimpleImputer fromsklearn.preprocessingimportMinMaxScaler fromsklearn.preprocessingimportOneHotEncoder categoricalfeatures=['IQ','temper'] numeric_features=['income','height'] categoricalpipe=Pipeline([ ('select',DataFrameSelector(categorical_features)), ('impute',SimpleImputer(missingvalues=None,strategy='most_frequent')), ('one_hot_encode',OneHotEncoder(sparse=False))]) numeric_pipe=Pipeline([ ('select',DataFrameSelector(numeric_features)), ('impute',SimpleImputer(missingvalues=np.nan,strategy='mean')), ('normalize',MinMaxScaler())]) full_pipe=FeatureUnion(transformer_list=[ ('numeric_pipe',numeric_pipe), ('categorical_pipe',categorical_pipe)])

我们打印结果如下:

X_proc=full_pipe.fit_transform(X) print(X_proc) [[1.0.120.1.0.0.1.] [0.777777780.721.0.0.1.0.] [0.555555560.481.0.0.0.1.] [0.0.520.0.1.1.0.] [0.044444441.0.1.0.1.0.] [0.111111110.1.0.0.1.0.] [0.088888890.920.1.0.1.0.] [0.341666670.520.1.0.1.0.] [0.155555560.40.1.0.1.0.]]

5.总结

下面我们对上面讲解到的sklearn工具库应用知识做一个总结。

SKLearn五大原则

SKLearn的设计下,它的主要API遵循五大原则

(1) 一致性

所有对象的接口一致且简单,在『估计器』中

  • 创建:model = Constructor(hyperparam)

  • 拟参:

    • 有监督学习:model.fit(X_train, y_train)

    • 无监督学习:model.fit(X_train)

在『预测器』中

  • 有监督学习里预测标签:y_pred = model.predict(X_test)

  • 无监督学习里识别模式:idx_pred = model.predict( Xtest)

在『转换器』中

  • 创建:trm = Constructor(hyperparam)

  • 获参:trm.fit(X_train)

  • 转换:X_trm = trm.transform(X_train)

(2) 可检验

所有估计器里设置的超参数和学到的参数都可以通过实例的变量直接访问来检验其值,区别是超参数的名称最后没有下划线_,而参数的名称最后有下划线_。举例如下:

  • 通例:model.hyperparameter

  • 特例:SVC.kernel

  • 通例:model.parameter_

  • 特例:SVC.support_vectors_

(3) 标准类

SKLearn模型接受的数据集的格式只能是『Numpy数组』和『Scipy稀疏矩阵』。超参数的格式只能是『字符』和『数值』。不接受其他的类!

(4) 可组成

模块都能重复『连在一起』或『并在一起』使用,比如两种形式流水线(pipeline)

  • 任意转换器序列

  • 任意转换器序列+估计器

(5) 有默认

SKLearn给大多超参数提供了合理的默认值,大大降低了建模的难度。

SKLearn框架流程

sklearn的建模应用流程框架大概如下:

(1) 确定任务

是『有监督』的分类或回归?还是『无监督』的聚类或降维?确定好后基本就能知道用Sklearn里哪些模型了。

(2) 数据预处理

这步最繁琐,要处理缺失值、异常值;要编码类别型变量;要正规化或标准化数值型变量,等等。但是有了Pipeline神器一切变得简单高效。

(3) 训练和评估

这步最简单,训练用估计器fit()先拟合,评估用预测器predict()来评估。

(4) 选择模型

启动ModelSelection估计器里的GridSearchCV和RandomizedSearchCV,选择得分最高的那组超参数(即模型)。

参考资料

[1]

SKLearn入门与简单应用案例:https://www.showmeai.tech/article-detail/202

[2]

SKLearn官网:https://scikit-learn.org/stable/

[3]

AI建模工具速查|Scikit-learn使用指南:https://www.showmeai.tech/article-detail/108

[4]

图解机器学习 | 机器学习基础知识:https://www.showmeai.tech/article-detail/185

[5]

图解机器学习 | 模型评估方法与准则:https://www.showmeai.tech/article-detail/186

[6]

Python机器学习算法实践:https://www.showmeai.tech/article-detail/201

[7]

机器学习评估与度量准则:https://www.showmeai.tech/article-detail/186

[8]

监督学习:分类任务:https://scikit-learn.org/stable/supervised_learning.html#supervised-learning

[9]

监督学习:回归任务:https://scikit-learn.org/stable/supervised_learning.html#supervised-learning

[10]

无监督学习:聚类任务:https://scikit-learn.org/stable/modules/clustering.html#clustering

[11]

无监督学习:降维任务:https://scikit-learn.org/stable/modules/decomposition.html#decompositions

[12]

模型选择任务:https://scikit-learn.org/stable/model_selection.html#model-selection

[13]

数据预处理任务:https://scikit-learn.org/stable/modules/preprocessing.html#preprocessing

[14]

数据导入模块:https://scikit-learn.org/stable/datasets.html

[15]

线上Jupyter环境:https://jupyter.org/try

[16]

seaborn工具与数据可视化教程:https://www.showmeai.tech/article-detail/151

[17]

聚类:https://www.showmeai.tech/article-detail/197

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/270477.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

docker的一些思考

1.docker是啥&#xff1f; 2.镜像执行流程 3.一些疑惑和解答 1. 2.

【Jmeter、postman、python 三大主流技术如何操作数据库?】

前言 1、前言 只要是做测试工作的&#xff0c;必然会接触到数据库&#xff0c;数据库在工作中的主要应用场景包括但不限于以下&#xff1a; 功能测试中&#xff0c;涉及数据展示功能&#xff0c;需查库校验数据正确及完整性&#xff1b;例如商品搜索功能 自动化测试或性能测试…

Python中assert的用法

assert翻译成中文是“断言”的意思&#xff0c;用于判断一个表达式&#xff0c;在表达式条件为 false 的时候触发异常。断言可以在条件不满足程序运行的情况下直接返回错误&#xff0c;而不必等待程序运行后出现崩溃的情况&#xff0c;例如我们的代码只能在 Linux(Windows) 系统…

Pycharm的码云代码上传、下载步骤

前提&#xff1a;本地已经安装 git 安装包才行 注意注意&#xff1a;避免少出现 冲突&#xff1a;建议&#xff0c;先 pull &#xff0c;再 push。 下载&#xff1a; 上传&#xff1a;

〖Python网络爬虫实战㊹〗- JavaScript Hook 的用法

订阅&#xff1a;新手可以订阅我的其他专栏。免费阶段订阅量1000 python项目实战 Python编程基础教程系列&#xff08;零基础小白搬砖逆袭) 说明&#xff1a;本专栏持续更新中&#xff0c;订阅本专栏前必读关于专栏〖Python网络爬虫实战〗转为付费专栏的订阅说明作者&#xff1…

MicroPython的中断处理

本文会简单介绍中断的基本原理&#xff0c;对MicroPython在处理中断时的一些机制和问题进行阐述&#xff0c;并对实时控制中断编程做简单的介绍。 中断 什么是中断&#xff1f; 中断是计算机系统中非常重要的一种机制&#xff0c;简单的说就是当有I/O或其它因素发出中断信号…

C++书籍推荐(持续更新...)

目录 新手C Primer Plus 初级数据结构算法设计与分析 中级C Core GuidelinesEffective CMore Effective C 高级C并发编程实战C Templates 专家C新经典 设计模式 大师计算之魂 神级传说 新手 完全适合小白的书籍 C Primer Plus 《C Primer Plus》这本书是一本深入浅出的C/C编程指…

openGauss学习笔记-173 openGauss 数据库运维-备份与恢复-导入数据-对表执行VACUUM

文章目录 openGauss学习笔记-173 openGauss 数据库运维-备份与恢复-导入数据-对表执行VACUUM openGauss学习笔记-173 openGauss 数据库运维-备份与恢复-导入数据-对表执行VACUUM 如果导入过程中&#xff0c;进行了大量的更新或删除行时&#xff0c;应运行VACUUM FULL命令&…

AI 引擎系列 8 - 运行时比率参数简介

简介 在 Versal AI 引擎 2 一文 中&#xff0c;我们注意到计算图 (graph) 文件中有一行内容用于为每个内核实例定义运行时比率参数。 在本文中&#xff0c;我们将讲解该参数如何影响 AI 引擎应用的资源使用率和性能。 要求 下文要求您通读前几篇 AI 引擎系列博文。 AI 引擎系…

2023/12/25日作业

串口通信 成果图 头文件uart4.h #ifndef __UART4_H__ #define __UART4_H__ #include "stm32mp1xx_rcc.h" #include "stm32mp1xx_gpio.h" #include "stm32mp1xx_uart.h" //灯初始化 void led_init(); //灯1 void led_1_on(); void led_…

vue 项目/备案网页/ip网页打包成 apk 安装到平板/手机(含vue项目跨域代理打包成apk后无法访问接口的解决方案)

下载安装HBuilder X编辑器 https://www.dcloud.io/hbuilderx.html 新建 5APP 项目 打开 HBuilder X&#xff0c;新建项目 此处项目名以 ‘test’ 为例 含跨域代理的vue项目改造 若 vue 项目中含跨域代理&#xff0c;如 vue.config.js module.exports {publicPath: "./&…

C语言中关于if else的理解

if else我们可以理解为 if(条件1) //如果条件1成立 语句1&#xff1b; //执行语句1 else //如果条件1不成立 语句2; //执行语句2 这是一个经典的if els…

智慧幼儿园视频监管方案及实施建议:AI智能技术构建新引擎

一、背景需求 随着科技的快速发展&#xff0c;智慧化监管已成为幼儿园管理的重要趋势。智慧幼儿园监管解决方案通过引入先进的技术手段&#xff0c;提高幼儿园的管理效率&#xff0c;保障幼儿的安全与健康&#xff0c;为家长提供更便捷的服务。为了保障幼儿的安全&#xff0c;…

使用TLS/SSL Pinning保护安卓应用程序

使用TLS/SSL Pinning保护安卓应用程序 在现代术语中&#xff0c;“SSL”&#xff08;安全套接层&#xff09;通常指的是“TLS”&#xff08;传输层安全&#xff09;。虽然 SSL 和 TLS 不是同一个东西&#xff0c;但 TLS 是 SSL 的改进和更安全的版本&#xff0c;并且在实践中已…

git命令和docker命令

1、git git是分布式的版本控制工具 git可以通过本地仓库管理文件的历史版本记录 # 本地仓库操作的命令 # 初始化本地库 git init # 添加文件到暂存区 git add . git checkout 暂存区要撤销的文件名称 # 提交暂存区文件 git commit -m 注释# 版本穿梭 # 查看提交记录 git log…

SOLIDWORKS Plastics基础功能详解(二)

浇口顾问 浇口顾问可迭代确定填充型腔所需的最佳注塑位置数量&#xff08;最多 10 个&#xff09;。 位置数量的默认值为自动&#xff0c;这将激活用于查找最佳注塑位置数量的迭代方法。要指定注塑位置的自定义数量&#xff0c;请选择用户定义。 具有压力相关粘度的材料 填充和…

走向边缘智能,美格智能携手阿加犀成功在高算力AI模组上运行一系列大语言模型

近日&#xff0c;美格智能发挥软硬件一体协同开发能力&#xff0c;融合阿加犀卓越的AI优化部署技术&#xff0c;在搭载高通QCS8550平台的高算力AI模组上&#xff0c;成功运行了一系列大语言模型&#xff0c;包括LLaMA-2、通义千问Qwen、百川大模型、RedPajama、ChatGLM2、Vicun…

Linux驱动

字符设备驱动模型 在字符设备中使用struct cdev这种结构来描述设备。 应用程序&#xff1a;读写文件&#xff0c;点灯&#xff1b;获取按键。用一些接口调用驱动程序去实现一些引用。 open这些函数&#xff0c;是C库实现的。从而进入内核&#xff0c;C库怎么进入内核&#xf…

【开源】基于JAVA语言的企业项目合同信息系统

目录 一、摘要1.1 项目介绍1.2 项目录屏 二、功能模块2.1 数据中心模块2.2 合同审批模块2.3 合同签订模块2.4 合同预警模块2.5 数据可视化模块 三、系统设计3.1 用例设计3.2 数据库设计3.2.1 合同审批表3.2.2 合同签订表3.2.3 合同预警表 四、系统展示五、核心代码5.1 查询合同…

【大厂面试】之 美团(一面经含答案)

美团 一面 tcp三次握手&#xff0c;四次挥手。time-wait、close-wait状态。MSL代表什么&#xff1f;为什么time-wait是2MSL&#xff0c;可不可以更长&#xff1f;如果不设置time-wait有什么影响 time-wait是主动关闭方的一个状态&#xff1b;close-wait是被动关闭方的一个状态…