ML@sklearn@ML流程Part3@AutomaticParameterSearches

文章目录

    • Automatic parameter searches
      • demo
    • model_selection::Hyper-parameter optimizers
      • GridSearchCV
        • eg
      • RandomizedSearchCV
        • eg
    • Note
      • RandomForestRegressor
      • MSE
    • pipeline交叉验证🎈
      • eg
    • L1@L2正则
    • Next steps
      • User Guide vs Tutorial

Automatic parameter searches

  • Automatic parameter search是指使用算法来自动搜索模型的最佳超参数(hyperparameters)的过程。超参数是模型的配置参数,它们不是从数据中学习的,而是由人工设定的,例如学习率、正则化强度、最大深度等。超参数的选择对模型的性能和泛化能力有很大的影响,因此选择最佳的超参数是机器学习中一个非常重要的任务。

  • 自动参数搜索通常使用的算法是网格搜索(Grid Search)、随机搜索(Random Search)和贝叶斯优化(Bayesian Optimization)等。这些算法具有不同的优缺点,可以根据问题的性质和数据集的大小选择合适的算法。一般来说,网格搜索是最简单、最直观的方法,但需要搜索的空间较大时会非常耗时;随机搜索可以在更短的时间内找到合适的超参数,但可能无法在搜索空间中全面覆盖;贝叶斯优化则是一种更高级的方法,它可以根据先前的搜索结果来调整搜索空间,从而更快地找到最优解。

  • 自动参数搜索的优点是可以避免手动调参的繁琐过程,同时可以更全面地搜索超参数的空间,从而得到更好的模型性能。缺点则是需要消耗大量的计算资源和时间,尤其是在搜索空间较大的情况下。因此,自动参数搜索通常用于对模型进行精细调整时,而不是在模型选择和原型开发阶段使用。

  • All estimators have parameters (often called hyper-parameters in the literature) that can be tuned.

  • The generalization power of an estimator often critically depends on a few parameters.

    • For example a RandomForestRegressor has a n_estimators parameter that determines the number of trees in the forest, and a max_depth parameter that determines the maximum depth of each tree.
  • Quite often, it is not clear what the exact values of these parameters should be since they depend on the data at hand.

  • Scikit-learn provides tools to automatically find the best parameter combinations (via cross-validation).

  • In the following example, we randomly search over the parameter space of a random forest with a RandomizedSearchCV object.

  • When the search is over, the RandomizedSearchCV behaves as a RandomForestRegressor that has been fitted with the best set of parameters. Read more in the User Guide:

  • 3.2. Tuning the hyper-parameters of an estimator — scikit-learn documentation

demo

from sklearn.datasets import fetch_california_housing
from sklearn.datasets import load_iris
from sklearn.ensemble import RandomForestRegressor
from sklearn.model_selection import RandomizedSearchCV,GridSearchCV
from sklearn.model_selection import train_test_split
from scipy.stats import randint

X, y = fetch_california_housing(return_X_y=True)
iris=load_iris()
X,y=iris.data,iris.target # type: ignore
X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=0)

##
# define the parameter space that will be searched over
param_distributions = {'n_estimators': randint(1, 5),
                       'max_depth': randint(3,6)}

# now create a searchCV object and fit it to the data
#根据超参数空间,构造CV对象
RFsearch = RandomizedSearchCV(estimator=RandomForestRegressor(random_state=0),
                            n_iter=5,
                            param_distributions=param_distributions,
                            verbose=3,
                            random_state=0)
# 开始搜索(调用SearchCV对象的fit方法)
RFsearch.fit(X_train, y_train)
#从搜索结果中获取最优参数
print(RFsearch.best_params_,"@{search.best_params_}")
#计算得分
RFsearch.score(X_test, y_test)

  • Fitting 3 folds for each of 12 candidates, totalling 36 fits
    [CV 1/3] END .......max_depth=3, n_estimators=1;, score=0.892 total time=   0.0s
    [CV 2/3] END .......max_depth=3, n_estimators=1;, score=0.967 total time=   0.0s
    [CV 3/3] END .......max_depth=3, n_estimators=1;, score=0.917 total time=   0.0s
    [CV 1/3] END .......max_depth=3, n_estimators=2;, score=0.908 total time=   0.0s
    [CV 2/3] END .......max_depth=3, n_estimators=2;, score=0.988 total time=   0.0s
    [CV 3/3] END .......max_depth=3, n_estimators=2;, score=0.917 total time=   0.0s
    [CV 1/3] END .......max_depth=3, n_estimators=3;, score=0.920 total time=   0.0s
    [CV 2/3] END .......max_depth=3, n_estimators=3;, score=0.992 total time=   0.0s
    [CV 3/3] END .......max_depth=3, n_estimators=3;, score=0.912 total time=   0.0s
    [CV 1/3] END .......max_depth=4, n_estimators=1;, score=0.913 total time=   0.0s
    [CV 2/3] END .......max_depth=4, n_estimators=1;, score=0.967 total time=   0.0s
    [CV 3/3] END .......max_depth=4, n_estimators=1;, score=0.917 total time=   0.0s
    [CV 1/3] END .......max_depth=4, n_estimators=2;, score=0.913 total time=   0.0s
    [CV 2/3] END .......max_depth=4, n_estimators=2;, score=0.992 total time=   0.0s
    [CV 3/3] END .......max_depth=4, n_estimators=2;, score=0.917 total time=   0.0s
    [CV 1/3] END .......max_depth=4, n_estimators=3;, score=0.923 total time=   0.0s
    [CV 2/3] END .......max_depth=4, n_estimators=3;, score=0.996 total time=   0.0s
    [CV 3/3] END .......max_depth=4, n_estimators=3;, score=0.912 total time=   0.0s
    [CV 1/3] END .......max_depth=5, n_estimators=1;, score=0.913 total time=   0.0s
    [CV 2/3] END .......max_depth=5, n_estimators=1;, score=0.967 total time=   0.0s
    [CV 3/3] END .......max_depth=5, n_estimators=1;, score=0.917 total time=   0.0s
    [CV 1/3] END .......max_depth=5, n_estimators=2;, score=0.913 total time=   0.0s
    [CV 2/3] END .......max_depth=5, n_estimators=2;, score=0.992 total time=   0.0s
    [CV 3/3] END .......max_depth=5, n_estimators=2;, score=0.917 total time=   0.0s
    ...
    [CV 1/3] END .......max_depth=6, n_estimators=3;, score=0.923 total time=   0.0s
    [CV 2/3] END .......max_depth=6, n_estimators=3;, score=0.996 total time=   0.0s
    [CV 3/3] END .......max_depth=6, n_estimators=3;, score=0.912 total time=   0.0s
    f{'max_depth': 4, 'n_estimators': 3}
    0.9794037940379404
    
  • 这段代码使用了Scikit-learn库中的随机搜索(Randomized Search)方法来寻找最佳的随机森林模型超参数。具体来说,该代码执行了以下步骤:

    1. 从Scikit-learn库中导入了California Housing数据集,随机森林回归器(RandomForestRegressor),随机搜索交叉验证(RandomizedSearchCV)和随机整数生成函数(randint)等必要的模块。
    2. 使用fetch_california_housing()函数从California Housing数据集中获取数据X和目标y,并将它们分为训练集和测试集。(但是考虑该数据集较大,运行需要执行较长时间,因此改用小数据集iris)
    3. 定义了一个超参数空间param_distributions,包含了n_estimatorsmax_depth两个超参数。其中,n_estimators表示随机森林模型中树的数量,取值范围为1到5之间的随机整数;max_depth表示每棵树的最大深度,取值范围为5到10之间的随机整数。
    4. 创建了一个随机搜索交叉验证对象search,并指定了它的参数,包括要搜索的超参数空间、要搜索的迭代次数(n_iter)等。
    5. 调用fit()函数对search对象进行拟合,使其从训练集中寻找最佳的超参数组合。
    6. 输出search对象的最佳超参数组合search.best_params_
    7. 最后,使用search对象的score()函数在测试集上评估模型的性能,并输出模型的得分。

    需要注意的是,随机搜索方法在给定的超参数空间中随机抽样一组超参数进行训练,并计算其性能。因此,每次运行该代码可能会得到不同的最佳超参数组合和模型得分。

  • param_grid = {
        'n_estimators': [1,2,3],
        'max_depth': [3, 4, 5, 6]
    }
    
    # Create a GridSearchCV object and fit it to the data
    Gsearch = GridSearchCV(estimator=RandomForestRegressor(random_state=0),
                            param_grid=param_grid,
                            cv=3,
                            verbose=3)
    Gsearch.fit(X_train, y_train)
    
    print(f"f{Gsearch.best_params_}")
    Gsearch.score(X_test, y_test)
    
    • Fitting 3 folds for each of 12 candidates, totalling 36 fits
      [CV 1/3] END .......max_depth=3, n_estimators=1;, score=0.892 total time=   0.0s
      [CV 2/3] END .......max_depth=3, n_estimators=1;, score=0.967 total time=   0.0s
      [CV 3/3] END .......max_depth=3, n_estimators=1;, score=0.917 total time=   0.0s
      [CV 1/3] END .......max_depth=3, n_estimators=2;, score=0.908 total time=   0.0s
      [CV 2/3] END .......max_depth=3, n_estimators=2;, score=0.988 total time=   0.0s
      [CV 3/3] END .......max_depth=3, n_estimators=2;, score=0.917 total time=   0.0s
      [CV 1/3] END .......max_depth=3, n_estimators=3;, score=0.920 total time=   0.0s
      [CV 2/3] END .......max_depth=3, n_estimators=3;, score=0.992 total time=   0.0s
      [CV 3/3] END .......max_depth=3, n_estimators=3;, score=0.912 total time=   0.0s
      [CV 1/3] END .......max_depth=4, n_estimators=1;, score=0.913 total time=   0.0s
      ...
      [CV 1/3] END .......max_depth=6, n_estimators=3;, score=0.923 total time=   0.0s
      [CV 2/3] END .......max_depth=6, n_estimators=3;, score=0.996 total time=   0.0s
      [CV 3/3] END .......max_depth=6, n_estimators=3;, score=0.912 total time=   0.0s
      f{'max_depth': 4, 'n_estimators': 3}
      0.9794037940379404
      

model_selection::Hyper-parameter optimizers

  • model_selection document

  • MethodsDescriptions
    model_selection.GridSearchCV(estimator, …)Exhaustive search over specified parameter values for an estimator.
    model_selection.HalvingGridSearchCV(…[, …])Search over specified parameter values with successive halving.
    model_selection.ParameterGrid(param_grid)Grid of parameters with a discrete number of values for each.
    model_selection.ParameterSampler(…[, …])Generator on parameters sampled from given distributions.
    model_selection.RandomizedSearchCV(…[, …])Randomized search on hyper parameters.
    model_selection.HalvingRandomSearchCV(…[, …])Randomized search on hyper parameters.
  • 其中列出了GridSearchCVRandomizedSearchCVHalvingGridSearchCV等类,以及它们的参数和用法。这些类可以用于寻找最佳的超参数组合,帮助用户优化模型性能。

    • GridSearchCV通过穷举搜索超参数空间中所有的可能组合,来寻找最佳的超参数组合。
    • RandomizedSearchCV通过随机采样超参数空间中的一些点,来寻找最佳的超参数组合。
    • HalvingGridSearchCV通过迭代地削减搜索空间来加速网格搜索的过程,从而在更短的时间内找到最佳的超参数组合。

GridSearchCV

GridSearchCVscikit-learn中用于进行网格搜索的类。它可以在给定的参数空间内进行全面搜索,找到最佳的超参数组合,从而优化模型性能。

GridSearchCV的使用方法比较简单,只需要定义一个超参数空间,并在其中指定要搜索的超参数及其取值范围。然后,GridSearchCV会在所有的超参数组合中进行搜索,并返回最佳的超参数组合及其对应的模型性能指标。

eg

  • 下面是一个简单的GridSearchCV的例子:

  • from sklearn import svm, datasets
    from sklearn.model_selection import GridSearchCV
    
    # 加载数据集
    iris = datasets.load_iris()
    X = iris.data
    y = iris.target
    
    # 设置要优化的超参数范围
    parameters = {'kernel':('linear', 'rbf'), 'C':[1, 10]}
    
    # 创建SVM分类器对象
    svc = svm.SVC()
    
    # 创建GridSearchCV对象,并设置参数
    clf = GridSearchCV(svc, parameters)
    
    # 在训练集上拟合GridSearchCV对象
    clf.fit(X, y)
    
    # 输出最佳的超参数组合和对应的评分
    print("Best parameters set found on development set:")
    print(clf.best_params_)
    print("Best score:")
    print(clf.best_score_)
    
    • Best parameters set found on development set:
      {'C': 1, 'kernel': 'linear'}
      Best score:
      0.9800000000000001
      
  • 这个示例使用了GridSearchCV来搜索SVC模型的最佳超参数组合。首先,加载iris数据集,并将特征矩阵和标签向量分别存储在X和y中。然后,设置要优化的超参数范围,包括kernel和C两个参数。接着,创建svm.SVC()分类器对象,并将其作为参数传递给GridSearchCV()函数,同时将超参数范围parameters也传递给该函数。然后,调用fit()方法在训练集上拟合GridSearchCV对象。最后,输出最佳的超参数组合和对应的评分。

  • 需要注意的是,网格搜索是一种全面搜索方法,可以保证找到全局最优解,但计算代价比较高,尤其是在超参数空间较大的情况下。

RandomizedSearchCV

  • RandomizedSearchCVscikit-learn中用于进行随机搜索的类。它可以在给定的参数空间内进行随机搜索,找到最佳的超参数组合,从而优化模型性能。
  • RandomizedSearchCV的使用方法与GridSearchCV类似,只是它不是在所有的超参数组合中进行搜索,而是在指定的超参数分布中进行抽样。这样可以减少搜索空间,从而在更短的时间内找到最佳的超参数组合。

eg

下面是一个简单的RandomizedSearchCV的例子:

  • from sklearn.datasets import load_iris
    from sklearn.linear_model import LogisticRegression
    from sklearn.model_selection import RandomizedSearchCV
    from scipy.stats import uniform
    iris = load_iris()
    logistic = LogisticRegression(solver='saga', tol=1e-2, max_iter=200,
                                  random_state=0)
    distributions = dict(C=uniform(loc=0, scale=4),
                         penalty=['l2', 'l1'])
    clf = RandomizedSearchCV(logistic, distributions, random_state=0)
    search = clf.fit(iris.data, iris.target)
    print(search.best_params_)
    
    • {'C': 2.195254015709299, 'penalty': 'l1'}
      
  • 这个示例使用了RandomizedSearchCV来搜索LogisticRegression模型的最佳超参数组合。首先,使用load_iris()函数加载iris数据集。

  • 然后,创建一个LogisticRegression分类器对象logistic,并设置其超参数,包括solvertolmax_iter等。

  • 接着,设置要搜索的超参数空间,包括Cpenalty两个参数,其中C的分布是uniform(loc=0, scale=4),表示在0到4之间均匀分布,penalty的值是['l2', 'l1']中的一个。

  • 然后,创建RandomizedSearchCV对象clf,并传入logistic分类器对象和超参数空间distributions。调用fit()方法,在iris数据集上拟合RandomizedSearchCV对象,并返回一个search对象。最后,输出最佳的超参数组合。

    这个例子展示了使用RandomizedSearchCV进行超参数优化的基本用法,包括如何设置超参数范围、创建分类器对象、拟合RandomizedSearchCV对象和输出最佳的超参数组合。与GridSearchCV不同的是,RandomizedSearchCV不会对所有可能的超参数组合进行搜索,而是在超参数空间中随机采样一些点进行搜索,可以在大数据集上更加高效。

Note

  • In practice, you almost always want to search over a pipeline, instead of a single estimator. One of the main reasons is that if you apply a pre-processing step to the whole dataset without using a pipeline, and then perform any kind of cross-validation, you would be breaking the fundamental assumption of independence between training and testing data.

  • Indeed, since you pre-processed the data using the whole dataset, some information about the test sets are available to the train sets. This will lead to over-estimating the generalization power of the estimator (you can read more in this Kaggle post).

  • Using a pipeline for cross-validation and searching will largely keep you from this common pitfall.

  • 实际上,你几乎总是想要在一个pipeline上进行搜索,而不是一个单一的估计器。其中一个主要原因是,如果你在不使用pipeline的情况下对整个数据集应用预处理步骤,然后执行任何形式的交叉验证,你将违反训练和测试数据之间独立性的基本假设。

    实际上,由于你使用整个数据集对数据进行预处理,因此一些关于测试集的信息可用于训练集。这将导致高估估计器的泛化能力。

  • 使用pipeline进行交叉验证和搜索将大大避免这种常见的问题。🎈

RandomForestRegressor

  • RandomForestRegressor是一种基于随机森林的回归模型。

  • 它是一种集成学习方法,通过组合多个决策树来提高预测的准确性和稳定性。每个决策树都是独立的,并且采用随机选择的样本和特征来进行训练。

  • 在预测时,随机森林将所有决策树的预测结果进行平均或投票,以得到最终的预测结果。

  • 该模型可以用于解决回归问题,例如预测房价、股票价格等连续变量的值。

  • RandomForestRegressor类是Scikit-learn中实现随机森林回归模型的类。它使用多个决策树来拟合数据,并使用Bagging方法(自助采样)来减少过拟合。在训练模型时,我们可以指定决策树的数量、每个决策树的最大深度、每个决策树使用的特征数量等参数。

  • 下面是一个使用RandomForestRegressor类来训练和预测的简单例子:

  • from sklearn.datasets import load_diabetes
    from sklearn.ensemble import RandomForestRegressor
    from sklearn.model_selection import train_test_split
    from sklearn.metrics import mean_squared_error
    
    # load data
    diabetes = load_diabetes()
    X, y = diabetes.data, diabetes.target
    
    # split data into train and test sets
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
    
    # train the model
    model = RandomForestRegressor(n_estimators=100, max_depth=5, random_state=42)
    model.fit(X_train, y_train)
    
    # make predictions on test set
    y_pred = model.predict(X_test)
    
    # evaluate the model
    mse = mean_squared_error(y_test, y_pred)
    print("Mean Squared Error:", mse)
    
    • 在这个例子中,我们首先加载糖尿病数据集,并将数据集拆分为训练集和测试集。接着,我们使用RandomForestRegressor类来训练模型。在训练模型时,我们指定了100个决策树、每个决策树的最大深度为5、使用随机种子为42。
    • 最后,我们在测试集上进行预测,并使用均方误差(MSE)来评估模型的性能。

MSE

  • 均方误差(Mean Squared Error,MSE)是一个用于评估回归模型性能的指标。它度量了模型预测值和真实值之间的平均差的平方。

  • 具体地,设预测值为 y ^ i \hat{y}_i y^i,真实值为 y i y_i yi,样本数量为 n n n,则 MSE 的计算公式为:

    M S E = 1 n ∑ i = 1 n ( y ^ i − y i ) 2 MSE = \frac{1}{n}\sum_{i=1}^{n}(\hat{y}_i - y_i)^2 MSE=n1i=1n(y^iyi)2

    MSE越小,表示预测值与真实值之间的差异越小,模型的性能越好。(在深度学习作为损失函数的一种)

    MSE 的值受到离群值的影响较大,因为它计算的是差异的平方,而离群值的差异往往比较大。

    MSE 与均方根误差(RMSE)有密切关系,RMSE 是 MSE 的平方根,用于量化预测值与真实值之间的平均差异。RMSE 的单位与预测值和真实值的单位相同,因此更加直观。

pipeline交叉验证🎈

  • 3.1. Cross-validation: evaluating estimator performance — scikit-learn 1.2.2 documentation

    • Learning the parameters of a prediction function and testing it on the same data is a methodological mistake: a model that would just repeat the labels of the samples that it has just seen would have a perfect score but would fail to predict anything useful on yet-unseen data. This situation is called overfitting. To avoid it, it is common practice when performing a (supervised) machine learning experiment to hold out part of the available data as a test set X_test, y_test. Note that the word “experiment” is not intended to denote academic use only, because even in commercial settings machine learning usually starts out experimentally. Here is a flowchart of typical cross validation workflow in model training. The best parameters can be determined by grid search techniques.

      在学习预测函数的参数并在同一数据上进行测试是一种方法论上的错误:一个只会重复其刚刚看到的样本标签的模型会得到完美的分数,但在尚未见过的数据上将无法预测任何有用的信息,这种情况称为过度拟合。

      为了避免这种情况,在进行(监督)机器学习实验时,通常将可用数据的一部分保留为测试集X_test,y_test。请注意,“实验”这个词不仅用于学术用途,因为即使在商业环境中,机器学习通常也是从实验开始的。下面是模型训练中典型交叉验证工作流程的流程图。最佳参数可以通过网格搜索技术确定。

      • 在这里插入图片描述
  • 假设我们有一个数据集,其中包含了房屋的面积、房间数量和价格等特征。我们想要使用支持向量机(SVM)来预测房屋价格。在使用SVM之前,我们需要对数据进行预处理,例如将特征缩放到相同的尺度上。

  • 如果我们不使用pipeline,而是先对整个数据集进行缩放,然后将缩放后的数据集拆分为训练集和测试集,并对它们进行交叉验证和搜索,那么我们将会存在数据泄漏(data leakage)的问题。

    • 这是因为,我们在对整个数据集进行缩放时,已经使用了测试集中的信息,从而使得训练集和测试集之间不再是独立的。

    • 具体来说,如果我们在对整个数据集进行缩放后再对其进行拆分,那么训练集中的某些数据可能已经“知道”了测试集中的一些信息,这将导致我们高估SVM的性能。因此,我们需要使用pipeline来确保在交叉验证和搜索过程中,预处理步骤仅使用训练集中的信息,而不涉及测试集。

eg

使用pipeline的例子如下:

from sklearn.datasets import make_classification 
from sklearn.model_selection import train_test_split
# 生成二分类数据集 
X, y = make_classification(n_samples=500, n_features=5,n_informative=3, n_classes=3, random_state=42) 
X_train,X_test,y_train,y_test=train_test_split(X,y)
# 查看数据集的形状和标签分布 
print(X.shape) 
print(y[:10])
##

from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler
from sklearn.svm import SVR
from sklearn.model_selection import GridSearchCV

# create a pipeline with scaling and SVM
pipeline = Pipeline([
    ('scaler', StandardScaler()),
    ('svm', SVR())
])

# define the parameter space for grid search
param_grid = {
    # 'svm__kernel':['linear','rbf'],
    'svm__C': [0.1, 1, 10],
    'svm__gamma': [0.01, 0.1,1],
}

# create a grid search object and fit to the data
grid_search = GridSearchCV(pipeline, param_grid, cv=5,verbose=3)
grid_search.fit(X_train, y_train)

# evaluate the best model on the test set
grid_search.score(X_test, y_test)
  • ....
    [CV 2/5] END ...........svm__C=10, svm__gamma=1;, score=0.577 total time=   0.0s
    [CV 3/5] END ...........svm__C=10, svm__gamma=1;, score=0.445 total time=   0.0s
    [CV 4/5] END ...........svm__C=10, svm__gamma=1;, score=0.624 total time=   0.0s
    [CV 5/5] END ...........svm__C=10, svm__gamma=1;, score=0.670 total time=   0.0s
    
    0.7792794616124854
    
  • 在这个例子中,我们创建了一个pipeline对象,其中包含了一个StandardScaler对象和一个SVR对象。StandardScaler对象用于对数据进行缩放,而SVR对象用于进行支持向量机回归。

  • 然后,我们定义了一个参数空间param_grid,其中包含了SVM的两个超参数C和gamma的取值范围。接着,我们使用GridSearchCV进行交叉验证和搜索,将pipeline作为估计器对象,并传入参数空间param_grid。

  • 最后,我们在测试集上评估了最佳模型的性能。

  • 需要注意的是,在这个例子中,我们使用了Pipeline对象来将多个步骤组合在一起,并确保在交叉验证和搜索过程中,每个步骤仅使用训练集中的信息,而不涉及测试集。这样,我们可以避免数据泄漏问题,并获得更准确的模型评估结果。

L1@L2正则

  • L1正则和L2正则是正则化方法中最常用的两种方法。

  • L1正则化(也称为Lasso|least absolute shrinkage and selection operator; also Lasso or LASSO)是一种线性回归的正则化方法,在损失函数中加入L1范数惩罚项,使得模型中的一些系数变为0,从而实现特征选择的作用。L1正则化可以用于特征选择,因为它可以将一些不重要或冗余的特征系数缩小甚至置0,从而提高模型的泛化能力。

    L2正则化(也称为Ridge)是一种线性回归的正则化方法,在损失函数中加入L2范数惩罚项,使得模型中的系数变得更小,从而防止模型过拟合。L2正则化可以用于处理高共线性数据,因为它可以通过减小系数的大小来缩小共线性的影响。

  • L1正则化和L2正则化的区别在于惩罚项的形式不同。L1正则化的惩罚项是系数向量中各个系数的绝对值之和,而L2正则化的惩罚项是系数向量中各个系数的平方和。

  • 因此,L1正则化更倾向于产生稀疏解,即一些系数为0,而L2正则化更倾向于产生系数较小的解,可以避免过拟合。在实际应用中,通常需要根据具体的问题和数据集选择合适的正则化方法。

  • 假设我们有一个分类问题,需要建立一个支持向量机(SVM)模型来分类。我们可以使用L1正则化或L2正则化来训练模型,并比较它们的效果。

    首先,我们使用L1正则化训练模型。在损失函数中,我们加入L1范数惩罚项,使得模型中的一些特征系数变为0,从而实现特征选择的作用。这意味着,一些特征将被完全忽略,并从模型中剔除。这可以避免特征之间的共线性,提高模型的泛化能力。

    from sklearn.datasets import load_iris
    from sklearn.svm import LinearSVC
    
    # 加载数据集
    iris = load_iris()
    
    # 创建L1正则化SVM模型对象
    l1_svm = LinearSVC(penalty='l1', dual=False,max_iter=3000)
    
    # 在数据集上训练模型
    l1_svm.fit(iris.data, iris.target)
    
    # 输出模型系数
    print(l1_svm.coef_)
    

    在这个例子中,我们使用LinearSVC模型对象来训练模型,并将penalty参数设置为’l1’,这是L1正则化的超参数。fit()方法将模型拟合到数据集上,并返回模型系数。输出的系数向量中,一些系数为0,这意味着它们对模型的贡献很小,被完全忽略。

    接下来,我们使用L2正则化训练模型。在损失函数中,我们加入L2范数惩罚项,使得模型中的系数变得更小,从而防止模型过拟合。这意味着,所有特征都被保留,但它们的系数被缩小,以避免过度拟合。

    # 创建L2正则化SVM模型对象
    l2_svm = LinearSVC(penalty='l2', dual=False)
    
    # 在数据集上训练模型
    l2_svm.fit(iris.data, iris.target)
    
    # 输出模型系数
    print(l2_svm.coef_)
    

    在这个例子中,我们使用LinearSVC模型对象来训练模型,并将penalty参数设置为’l2’,这是L2正则化的超参数。fit()方法将模型拟合到数据集上,并返回模型系数。输出的系数向量中,所有系数都被保留,但它们的大小被缩小。

    可以看到,在这个示例中,L1正则化和L2正则化的效果是不同的。L1正则化通过特征选择去除了一些特征,而L2正则化则保留了所有特征,但缩小了它们的系数。在实际应用中,需要根据具体的问题和数据集选择合适的正则化方法。

Next steps

  • We have briefly covered estimator fitting and predicting, pre-processing steps, pipelines, cross-validation tools and automatic hyper-parameter searches. This guide should give you an overview of some of the main features of the library, but there is much more to scikit-learn!

  • Please refer to our User Guide for details on all the tools that we provide. You can also find an exhaustive list of the public API in the API Reference.

  • You can also look at our numerous examples that illustrate the use of scikit-learn in many different contexts.

  • The tutorials also contain additional learning resources.

User Guide vs Tutorial

  • scikit-learn提供了用户指南(User Guide)和教程(Tutorial)两种不同类型的文档,它们的目的和用途略有不同。

    • User guide: contents — scikit-learn documentation

    用户指南(User Guide)是一份详细的文档,它以任务为导向,介绍了scikit-learn中提供的各种机器学习算法和工具的用法、原理、参数设置、优化技巧等方面的内容。用户指南的主要受众是那些已经对机器学习有一定了解,并且想要使用scikit-learn构建复杂的机器学习系统的用户。用户指南的目的是帮助用户深入理解scikit-learn的功能和设计,掌握使用scikit-learn构建机器学习系统的方法和技巧。

    教程(Tutorial)则是一份更为简单和易于入门的文档,它主要是为那些新手用户准备的。教程从基础开始,介绍了scikit-learn的核心概念、数据预处理、模型选择、模型评估等方面的内容,并提供了一些示例代码和练习题,帮助用户逐步掌握scikit-learn的使用方法。教程的目的是帮助用户快速入门scikit-learn,了解基本的机器学习流程和工具,为进一步深入学习和实践打下基础。

    总之,用户指南适合那些希望深入理解scikit-learn的机制、算法和工具的用户,而教程则适合那些刚开始接触机器学习和scikit-learn的新手用户。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/8129.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

6 计时器(一)

计时器 6.1 TIM TIM简介 TIM(Timer)定时器 定时器可以对输入的时钟进行计数,并在计数值达到设定值时触发中断 16位计数器、预分频器、自动重装寄存器的时基单元,在72MHz计数时钟下可以实现最大59.65s的定时 不仅具备基本的定时中…

如何在现实场景中随心放置AR虚拟对象?

随着AR的发展和电子设备的普及,人们在生活中使用AR技术的门槛降低,比如对于不方便测量的物体使用AR测量,方便又准确;遇到陌生的路段使用AR导航,清楚又便捷;网购时拿不准的物品使用AR购物,体验更…

Spring-aop面向切面

1、理解必要的专业术语 先看看上面图,这是我的个人理解。(画的丑,主打真实) 1)Advice,通知/增强:类方法中提出来的共性功能(大白话就是提出来的重复代码) 2)Pointcut,切入点/切点&#…

centos7修改ip

准备项目 项目开发工具 Visual Studio Code 1.44.2 版本: 1.44.2 提交: ff915844119ce9485abfe8aa9076ec76b5300ddd 日期: 2020-04-16T16:36:23.138Z Electron: 7.1.11 Chrome: 78.0.3904.130 Node.js: 12.8.1 V8: 7.8.279.23-electron.0 OS: Windows_NT x64 10.0.19044 项目…

uniapp国际化配置

1、创建资源文件 创建一个locale文件夹,新增index.js,en.json,zh-hans.json 2.配置locale文件夹中的index.js文件 import Vue from vue import VueI18n from vue-i18n// v8.x import en from ./en.json import zhHans from ./zh-Hans.json import zhHant from .…

Redis大key问题

Redis大key问题 什么是big key? bigKey的危害: 大key不仅仅是占用内存而已,如果是仅仅内存的问题 那么扩大内存就好了。禁止大key是主要是因为你操作redis,比如说读/写等操作redis的时候 会有io操作,大key会导致io操作…

【K8S】k8s中secret使用方法

secret可以加密用户名和密码文件,将其打包成一个secret并在API服务器上创建对象 echo -n admin > ./username.txt echo -n xvagaxx > ./password.txt将username.txt和password.txt打包成secret kubectl create secret generic db-user-pass \--from-file./u…

【Mysql系列】——详细剖析数据库中的存储引擎

【Mysql系列】——详细剖析数据库中的存储引擎😎前言🙌存储引擎什么是存储引擎?Mysql的体系结构:Mysql的体系结构分为四层:连接层服务层引擎层存储层存储引擎的查看存储引擎的指定存储引擎的特点InnoDB介绍InnoDB特点I…

客户反馈终极指南

客户反馈包括客户在交易后分享的有关产品或服务体验的所有信息、问题和输入。 客户反馈可帮助公司改善他们提供的客户体验,并可以在企业内产生积极的变化和增长。无论是正面的还是负面的,客户反馈都有助于调整您的产品和服务,以满足并超越客户…

基于vivado(语言Verilog)的FPGA学习(5)——跨时钟处理

基于vivado(语言Verilog)的FPGA学习(5)——跨时钟处理 1. 为什么要解决跨时钟处理问题 慢时钟到快时钟一般都不需要处理,关键需要解决从快时钟到慢时钟的问题,因为可能会漏信号或者失真,比如&…

Python零基础自学

很多零基础想做程序员的同学,最开始接触的基本上都是 Python 作为常年霸榜的 “最好上手的编程语言” ——Python,深受互联网大厂的喜爱。 而很多小伙伴反应,在刚开始学Python时遇到不少问题: 比如找不到学习资源,不…

Linux系统centos7关闭防火墙命令

CentOS 7使用的防火墙是firewalld,要关闭防火墙可以使用以下命令: 1. 停止firewalld服务: systemctl stop firewalld 2. 禁止firewalld服务开机启动: systemctl disable firewalld 3. 查看firewalld服务状态: sys…

java 线程池

一.简单的线程池设计: 线程池的执行示意图: 二. 线程池的核心参数: 三.线程池的处理流程: 四.线程池的阻塞队列: 1.基于数组的有界阻塞队列 2.基于链表的有界阻塞队列 3.基于链表的无界阻塞队列 4.同步移交阻塞队列…

2003-2019年各省专利申请和授权量数据/2003-2019年31省专利申请和授权量数据

2003-2019年各省专利申请和授权量数据/2003-2019年31省专利申请量和授权量数据 2003-2019年各省专利申请和授权量数据/2003-2019年31省专利申请和授权量数据 1、时间:2003-2019年 2、来源:国家知识产权专利数据库 3、指标:专利申请数、发…

数据结构和算法(一):复杂度、数组、链表、栈、队列

从广义上来讲:数据结构就是一组数据的存储结构 , 算法就是操作数据的方法 数据结构是为算法服务的,算法是要作用在特定的数据结构上的。 10个最常用的数据结构:数组、链表、栈、队列、散列表、二叉树、堆、跳表、图、Trie树 10…

办公协作效率想提质增效,可借助开源大数据工具!

在信息爆炸式发展的今天,提升办公协作效率,让各部门的信息有效互通起来,做好数据管理,已经成为众企业提升竞争力的方式方法。那么,如果想要提升办公效率,就需要了解开源大数据工具了。在数字化发展进程中&a…

《扬帆优配》西藏地震!美史上最严排放新规将出台,美股收涨

当地时间周四,美股遍及收高,科技股领涨。因耶稣受难日,美股4月7日(周五)休市,周四为美股本周最终一个买卖日,从本周状况来看,纳指与标普500指数均录得跌幅,别离跌1.1%和0…

回归预测 | MATLAB实现PSO-RF粒子群算法优化随机森林多输入单输出回归预测

回归预测 | MATLAB实现PSO-RF粒子群算法优化随机森林多输入单输出回归预测 目录回归预测 | MATLAB实现PSO-RF粒子群算法优化随机森林多输入单输出回归预测效果一览基本介绍程序设计参考资料效果一览 基本介绍 MATLAB实现PSO-RF粒子群算法优化随机森林多输入单输出回归预测 粒子…

第十四届蓝桥杯题解

声明:以下都无法确定代码的正确性,是赛时代码,希望大家见谅!思路可以参考,等后续可以评测之后再去修改博客内错误,也希望大家能够指正错误! 试题A:日期统计 分析:这道题…

45-Dockerfile-ARG/ENV指令

AGR/ENV指令前言ARG作用格式说明生效范围使用示例ENV作用格式说明使用环境变量使用示例ARG 和 ENV 的区别前言 本篇来学习下Dockerfile中的AGR/ENV指令 ARG 作用 定义一个可以在构建镜像时使用的变量 格式 ARG <name>[<default value>]说明 在执行 docker b…