机器学习作业3____决策树(CART算法)

目录

一、简介

 二、具体步骤

样例:

三、代码

四、结果

五、问题与解决


一、简介

CART(Classification and Regression Trees)是一种常用的决策树算法,可用于分类和回归任务。这个算法由Breiman等人于1984年提出,它的主要思想是通过递归地将数据集划分为两个子集,然后在每个子集上继续划分,直到满足某个停止条件为止。

CART算法在分类和回归问题上表现良好,并且能够处理多种数据类型(包括离散型和连续型特征)。由于其简单、易于理解和实现,以及在一些应用中的良好性能,CART算法被广泛应用于实践中。

 二、具体步骤

  1. 计算整体数据集的基尼指数:

    • 首先,计算整个数据集的基尼指数。基尼指数表示从数据集中随机选择两个样本,它们属于不同类别的概率。对于每个节点,基尼指数可以通过以下公式计算: \text{Gini}(D) = 1 - \sum_{i=1}^k (p_i)^2 ( D ) 是当前节点的数据集,( k ) 是类别的数量,( p_i ) 是第 ( i ) 类样本在数据集 ( D ) 中的频率。
  2. 选择最佳特征和切分点:

    • 对于每个特征,遍历其所有可能的取值作为切分点。
    • 对于每个切分点,将数据集分为两个子集:左子集(特征值小于等于切分点)和右子集(特征值大于切分点)。
    • 计算基尼指数来衡量使用当前特征和切分点进行划分后的加权基尼指数。数学上,对于一个特征 ( A ) 的某个切分点 ( t ),其左子集和右子集的基尼指数可以计算为: \text{Gini}(A, t) = \frac{|D{\text{l}}|}{|D|} \times \text{Gini}(D_{\text{l}}) + \frac{|D_{\text{r}}|}{|D|} \times \text{Gini}(D_{\text{r}})
    • 选择使得基尼指数最小的特征和切分点作为当前节点的划分依据。
  3. 递归划分子集:

    • 根据选择的最佳特征和切分点,将当前节点的数据集划分为两个子集:左子集和右子集。
    • 对每个子集递归地重复步骤 1 和步骤 2,直到达到停止条件,例如达到最大深度、节点样本数量小于预设阈值等。
  4. 停止条件:

    • 决策树构建过程中,需要设定停止条件,以防止过度拟合或无限生长。常见的停止条件包括:达到最大深度、节点样本数量小于预设阈值、节点基尼指数低于阈值等。
  5. 剪枝:

    • 在决策树生长完成后,可以应用剪枝来降低树的复杂度和提高泛化能力。剪枝的目标是通过移除部分节点或子树来减小模型的复杂度,常见的剪枝方法有预剪枝和后剪枝。
    • 预剪枝:预剪枝是在决策树构建过程中,在决策树生长过程中进行判断并提前终止树的生长。在预剪枝中,可以设置一些停止生长的条件,例如限制树的最大深度、节点中最小样本数、基尼不纯度的阈值等。当达到任何一个预设条件时,就停止分裂节点并将该节点标记为叶子节点,不再继续向下生长,从而避免过拟合。
    • 后剪枝:后剪枝是在决策树构建完成之后,对已生成的决策树进行修剪来减少过拟合。后剪枝通过剪掉一些子树或者将子树替换为叶子节点来减少树的复杂度,从而提高泛化能力。后剪枝的过程通常是自底向上地遍历决策树,然后对每个内部节点尝试剪枝,判断剪枝后的决策树性能是否提升,如果提升则进行剪枝操作。

    • 预剪枝和后剪枝各有优劣势:预剪枝可以在构建树的过程中避免过拟合,但可能会导致欠拟合,因为它在生长时就限制了树的复杂度。后剪枝在构建完整个树后进行修剪,更容易实现,但可能会由于过拟合而导致剪枝效果不佳。

  6. 预测:

    • 使用生成的决策树对新样本进行分类预测。
    • 从根节点开始,根据特征值逐步向下遍历树的分支,直到到达叶子节点,然后将叶子节点的预测值作为样本的预测结果。

样例:

一些解释:

分裂阈值是决策树算法中用来划分数据集的一个值,它决定了将数据集分成两部分的标准。在每个节点上,决策树算法会选择一个特征和一个分裂阈值,将数据集分为两部分,使得分裂后的子集尽可能地纯净(即属于同一类别)。

假设有一个二维数据集,包含两个特征和一个类别:

X1X2Y
1.02.00
2.03.00
2.02.01
3.04.01
3.03.00

在构建过程中,需要选择一个特征和一个分裂阈值来将数据集划分为左右两个子集。假设现在可以选择特征X1,并将分裂阈值设为2.5。所有X1小于2.5的样本将被划分到左子集,而X1大于等于2.5的样本将被划分到右子集。

首先,我们根据选定的特征和分裂阈值将数据集划分成两个子集。

左子集(X1 < 2.5):

X1X2Y
1.02.00
2.03.00
2.02.01

右子集(X1 >= 2.5):

X1X2Y
3.04.01
3.03.00

对于左子集:

  • 类别0的频率:p_0 = \frac{2}{3} = 0.67
  • 类别1的频率:p_1 = \frac{1}{3} = 0.33

左子集的基尼指数为:

Gini_{left} = 1 - (0.67^2 + 0.33^2)= 0.4422

对于右子集:

  • 类别0的频率:p_0 = \frac{1}{2} = 0.5
  • 类别1的频率:p_1 = \frac{1}{2} = 0.5

右子集的基尼指数为:

Gini_{right} = 1 - (0.5^2 + 0.5^2) = 0.5

计算加权基尼指数

Weighted Gini Index = \frac{3}{5} \times Gini_{left} + \frac{2}{5} \times Gini_{right}= \frac{3}{5} \times 0.4422 + \frac{2}{5} \times 0.5 = 0.66532

在这个例子中,选定特征X1和分裂阈值2.5的加权基尼指数为约0.66532。

三、代码

import numpy as np
from sklearn.datasets import load_iris
from sklearn.tree import DecisionTreeClassifier
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score



class DecisionTreeClassifier:
    def __init__(self, max_depth=None, min_samples_split=2):
        """
        初始化决策树分类器
        
        参数:
        - max_depth: 决策树的最大深度,控制树的生长。默认为None,表示不限制深度。
        - min_samples_split: 内部节点再划分所需的最小样本数。默认为2。
        """
        self.max_depth = max_depth
        self.min_samples_split = min_samples_split
    
    def fit(self, X, y):
        """
        根据训练数据拟合模型
        
        参数:
        - X: 训练数据的特征数组。
        - y: 训练数据的标签数组。
        """
        self.n_classes = len(np.unique(y))
        self.n_features = X.shape[1]
        self.tree_ = self._grow_tree(X, y)
    
    def _grow_tree(self, X, y, depth=0):
        """
        递归地构建决策树
        
        参数:
        - X: 当前节点的特征数组。
        - y: 当前节点的标签数组。
        - depth: 当前节点的深度。
        """
        # 计算每个类别的样本数
        n_samples_per_class = [np.sum(y == i) for i in range(self.n_classes)]
        # 预测当前节点的类别为样本数最多的类别
        predicted_class = np.argmax(n_samples_per_class)
        
        if depth < self.max_depth and X.shape[0] >= self.min_samples_split:
            best_gini = float('inf')
            best_feature = None
            best_threshold = None
            
            # 遍历每个特征
            for feature in range(self.n_features):
                unique_values = np.unique(X[:, feature])
                # 遍历每个特征值作为分裂阈值
                for threshold in unique_values:
                    y_left = y[X[:, feature] < threshold]
                    y_right = y[X[:, feature] >= threshold]
                    
                    if len(y_left) == 0 or len(y_right) == 0:
                        continue
                    
                    # 计算基尼不纯度
                    gini = self._gini_impurity(y_left, y_right)
                    
                    # 选择最小基尼不纯度对应的特征和阈值
                    if gini < best_gini:
                        best_gini = gini
                        best_feature = feature
                        best_threshold = threshold
            
            # 如果存在可以降低基尼不纯度的分裂,则继续构建子树
            if best_gini < float('inf'):
                left_indices = X[:, best_feature] < best_threshold
                X_left, y_left = X[left_indices], y[left_indices]
                X_right, y_right = X[~left_indices], y[~left_indices]
                
                left_subtree = self._grow_tree(X_left, y_left, depth + 1)
                right_subtree = self._grow_tree(X_right, y_right, depth + 1)
                
                return {'feature': best_feature, 'threshold': best_threshold,
                        'left': left_subtree, 'right': right_subtree}
        
        # 当无法继续分裂时,返回当前节点的预测类别
        return {'predicted_class': predicted_class}
    
    def _gini_impurity(self, y_left, y_right):
        """
        计算基尼不纯度
        
        参数:
        - y_left: 左子节点的标签数组。
        - y_right: 右子节点的标签数组。
        """
        n_left, n_right = len(y_left), len(y_right)
        n_total = n_left + n_right
        
        p_left = np.array([np.sum(y_left == c) / n_left for c in range(self.n_classes)])
        p_right = np.array([np.sum(y_right == c) / n_right for c in range(self.n_classes)])
        
        # 计算左右节点的基尼不纯度
        gini_left = 1.0 - np.sum(p_left ** 2)
        gini_right = 1.0 - np.sum(p_right ** 2)
        
        # 计算加权基尼不纯度
        gini = (n_left / n_total) * gini_left + (n_right / n_total) * gini_right
        return gini
    
    def predict(self, X):
        """
        对输入数据进行预测
        
        参数:
        - X: 待预测数据的特征数组。
        
        返回:
        - 预测的标签数组。
        """
        return np.array([self._predict(inputs) for inputs in X])
    
    def _predict(self, inputs):
        """
        递归地预测单个样本的标签
        
        参数:
        - inputs: 单个样本的特征数组。
        
        返回:
        - 预测的标签。
        """
        node = self.tree_
        while 'predicted_class' not in node:
            feature_value = inputs[node['feature']]
            # 根据特征值和阈值判断进入左子树还是右子树
            if feature_value < node['threshold']:
                node = node['left']
            else:
                node = node['right']
        return node['predicted_class']

# 加载数据集
iris = load_iris()
X = iris.data
y = iris.target

# 划分数据集为训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 初始化决策树分类器
clf = DecisionTreeClassifier(max_depth=2)
clf.fit(X_train, y_train)
print("test:"+str(X_test)+"\n         pre:"+str(y_test))
print("Predictions:", clf.predict(X_test))

accuracy = accuracy_score(y_test, clf.predict(X_test))
print("准确率:"+str(accuracy*100)+'%')


四、结果

本次实验采用的是python自带的鸢尾花数据集,将数据集8:2分为训练集和测试集,将树的最大深度设置为2,得到的结果如下:

可以看到只有一个点出现了错误,预测的效果不错。

五、问题与解决

问题1.

  1. 过拟合:决策树容易在训练数据上过拟合,即模型过于复杂,过度拟合训练数据中的噪声或特定样本,导致在测试数据上表现不佳。欠拟合:与过拟合相反,如果决策树过于简单,可能无法捕捉数据中的复杂关系,导致在训练和测试数据上都表现不佳。

  2.  解决减缓过拟合:降低模型复杂度、增加训练数据量、使用正则化技术、特征选择等。减缓欠拟合:增加模型复杂度、添加更多特征、使用更复杂的模型等

        

 问题2.

  1. 内存消耗问题:如果数据集过大或者决策树过深,可能导致内存消耗过大,甚至导致程序崩溃或者运行缓慢。

  2. 解决:限制最大深度:通过设置决策树的最大深度来限制树的复杂度,从而减少内存消耗。限制叶子节点数量:设置叶子节点的最小样本数,以避免树过于深。使用剪枝:在树的训练过程中或者之后对树进行剪枝,去掉不必要的分支和节点。分批处理数据:将数据集划分为小批次,并逐批进行训练和预测,以减少一次性处理的内存需求。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/573343.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

sorensen索伦森电源维修XRF系列程控电源XRF600-4

AMETEK直流电源产品有两种类型&#xff1a;固定量程类型和自动量程类型。 固定量程电源是经济型的&#xff0c;输出范围为传统的矩形范围。 自动量程电源&#xff0c;在满输出功率的基础上&#xff0c;扩展了电流和电压的输出范围&#xff0c;使其能够满足更广泛的测试需求&am…

自由场、半自由场、扩散场

按声场性质可以将声场分为三类&#xff1a;自由声场、半自由声场、扩散声场 分别对应着全消声室&#xff0c;半消声室&#xff0c;混响室 自由声场&#xff1a; 声源在均匀、各向同性媒介中传播时&#xff0c;不计边界影响的声场&#xff0c;此时声场中只有直达声没有反射声。…

数据库系统原理实验报告4 | 数据完整性

整理自博主本科《数据库系统原理》专业课自己完成的实验报告&#xff0c;以便各位学习数据库系统概论的小伙伴们参考、学习。 专业课本&#xff1a; ———— 本次实验使用到的图形化工具&#xff1a;Heidisql 目录 一、实验目的 二、实验内容 1、建表 2、对1题中创建的Stud…

MySQL--mysql的安装(压缩包安装保姆级教程)

官网下载&#xff1a;www.mysql.com MySQL :: Download MySQL Community Server (Archived Versions) 1.MySQL下载流程&#xff1a; 第一步&#xff1a;点击download&#xff0c; 下滑找到MySQL community&#xff08;gpl&#xff09;Downloads>> 第二步&#xff1a;点…

问题-MySQL将较大的SQL文件导入MySQL

迁移数据的时候&#xff0c;我们有时候会用sqlyog等数据库工具导入到新数据库。可能插入的SQL语句太大&#xff0c;出现导入一半失败的情况。明明代码没错&#xff0c;这让人摸不着头脑。 对于大文件导入&#xff0c;有几种方法&#xff1a; 方法1&#xff1a;使用命令行&…

这几种MBTI,活该做项目经理!

最近公司群里发了一个性格测试&#xff08;MBTI&#xff09;&#xff0c;让根据大家测出来的性格&#xff0c;适当挖掘一下自身潜力。 当对照性格解析时&#xff0c;才发现公司里真是卧虎藏龙&#xff0c;而且每个人测出来的性格和平时表现出的自己都非常贴合。 MBTI性格测试…

2024年Q1企业邮箱安全性研究报告:钓鱼邮件同比增长59.9%

4月23日&#xff0c;Coremail邮件安全联合北京中睿天下信息技术有限公司发布《2024年第一季度企业邮箱安全性研究报告》。对当前企业邮箱的应用状况和安全风险进行了分析。 1、垃圾邮件持续增长 根据Coremail邮件安全人工智能实验室最新数据显示&#xff0c;2024年第一季度&am…

Postman - 设置变量

场景&#xff1a; 比如你接口都有权限&#xff0c;访问需要每调一个接口都手动放token的值&#xff0c;这个时候就可以搞个全局的变量&#xff0c;只设置一次就可以了 1、设置变量 Environments -> Globals - > 设置key 、value 2、使用变量 {{你得变量名-key}} 3…

电动车DC-DC80V降33V/12V 3A大功率同步降压芯片_AH1008

AH1008是一款专为电动车设计的同步降压芯片&#xff0c;TEL&#xff1a;186*4884*3702*能够将输入电压从80V稳定地降至33V或12V&#xff0c;并提供最大3A的输出电流。该芯片采用了先进的同步降压转换技术&#xff0c;有效降低了能量损耗&#xff0c;提升了转换效率&#xff0c;…

做抖音小店,“自然流量”和“达人带货”,选择哪个更香?

大家好&#xff0c;我是电商笨笨熊 做抖音小店&#xff0c;关于选择自然流还是达人带货&#xff0c;从推出时就一直争吵到现在&#xff1b; 有人觉得自然流不需要佣金&#xff0c;一次性带来的爆单量很大&#xff1b; 有人觉得达人带货细水长流&#xff0c;虽然需要佣金&…

【大语言模型LLM】-基础语言模型和指令微调的语言模型

&#x1f525;博客主页&#xff1a;西瓜WiFi &#x1f3a5;系列专栏&#xff1a;《大语言模型》 很多非常有趣的模型&#xff0c;值得收藏&#xff0c;满足大家的收集癖&#xff01; 如果觉得有用&#xff0c;请三连&#x1f44d;⭐❤️&#xff0c;谢谢&#xff01; 长期不…

干货教程【AI篇】| 真人照片转动漫AI工具分享

今天给大家分享一个真人照片转动漫的工具。用真是拍摄的照片生成动漫/漫画/手绘/卡通图的工具。 需要这个工具的同学可以关注【文章底部公众号】&#xff0c;回复关键词【zpdm】即可获取本文所讲工具。 首先我们将下载下来的压缩包解压 直接双击红框内的文件就可以运行了。启…

ThinkPad E14 Gen 4,R14 Gen 4,E15 Gen 4(21E3,21E4,21E5,21E6,21E7)原厂Win11系统恢复镜像下载

lenovo联想ThinkPad笔记本电脑原装出厂Windows11系统安装包&#xff0c;恢复出厂开箱状态一模一样 适用型号&#xff1a;ThinkPad E14 Gen 4,ThinkPad R14 Gen 4,ThinkPad E15 Gen 4 (21E3,21E4,21E5,21E6,21E7) 链接&#xff1a;https://pan.baidu.com/s/1QRHlg2yT_RFQ81Tg…

解决在 Python 数据分析中遇到的 Matplotlib 字体警告问题

当在 Python 数据分析中遇到类似以下警告时&#xff1a; D:\anaconda3\lib\site-packages\matplotlib\backends\backend_agg.py:211: RuntimeWarning: Glyph 24037 missing from current font.font.set_text(s, 0.0, flagsflags) D:\anaconda3\lib\site-packages\matplotlib\ba…

【前端】3. CSS【万字长文】

CSS 是什么 层叠样式表 (Cascading Style Sheets). CSS 能够对网页中元素位置的排版进行像素级精确控制, 实现美化页面的效果. 能够做到页面的样式和结构分离. CSS 就是 “东方四大邪术” 之化妆术. 基本语法规范 选择器 {一条/N条声明} 选择器决定针对谁修改 (找谁)声明决…

XOCIETY在Sui构建玩家的天堂

Sui惊人的速度和创新的NFT技术使其成为游戏的绝佳环境&#xff0c;而没有什么比XOCIETY更能证明这一点了。XOCIETY是一款新的流行射击游戏&#xff0c;具有RPG元素&#xff0c;将于今年晚些时候登陆Sui网络。这款由NDUS Interactive制作的游戏在基于虚幻引擎5构建的丰富环境中提…

C. Left and Right Houses

本题链接&#xff1a;Problem - C - Codeforces 题目&#xff1a; 样例&#xff1a; 输入 7 3 101 6 010111 6 011001 3 000 3 110 3 001 4 1100输出 2 3 2 3 0 1 0 思路&#xff1a; 根据题目意思。 寻找一条道路进行分割该字符串&#xff0c;设该道路分割位置为 i &#x…

CSS border边框(理解网页边框制作)

目录 一、border边框介绍 1.概念 2.特点 3.功能 4.应用 二、border边框用法 1.border边框属性 2.边框样式 3.边框宽度 4.边框颜色 5.边框-单独设置各边 6.边框-简写属性 三、border边框属性 四、border边框实例 1.创建带有阴影效果的边框&#xff1a; 2. 创建一个类似标…

安全测试工具箱

工具列表 WebShell管理工具 哥斯拉v4.0.1 冰蝎v3.0Beta_11 冰蝎v4.1 冰蝎魔改v3.3.2 中国蚁剑v2.1.15 天蝎权限管理工具v1.0 Alien权限管理工具v4.0 渗透利器工具 BurpSuite Pro 2023.5.1 DudeSuite Cobalt Strike 4.7美化破解版 XieBro-v3.1 Counter-Strike1.6 YAKIT XRAY…

3d软件哪个适合新手学?3D动画渲染怎么好

在不同的行业领域&#xff0c;3D建模和动画的需求各异&#xff0c;因此所需的3D软件工具也会有所不同。对于刚开始接触3D设计的新手来说&#xff0c;软件的易操作性、丰富的学习资源以及与自己专业领域相关的功能是选择时的重要考虑因素。以下是几款适合初学者入门的3D软件推荐…