Python Pandas(7):Pandas 数据清洗

        数据清洗是对一些没有用的数据进行处理的过程。很多数据集存在数据缺失、数据格式错误、错误数据或重复数据的情况,如果要使数据分析更加准确,就需要对这些没有用的数据进行处理。数据清洗与预处理的常见步骤:

  1. 缺失值处理:识别并填补缺失值,或删除含缺失值的行/列。
  2. 重复数据处理:检查并删除重复数据,确保每条数据唯一。
  3. 异常值处理:识别并处理异常值,如极端值、错误值。
  4. 数据格式转换:转换数据类型或进行单位转换,如日期格式转换。
  5. 标准化与归一化:对数值型数据进行标准化(如 Z-score)或归一化(如 Min-Max)。
  6. 类别数据编码:将类别变量转换为数值形式,常见方法包括 One-Hot 编码和标签编码。
  7. 文本处理:对文本数据进行清洗,如去除停用词、词干化、分词等。
  8. 数据抽样:从数据集中抽取样本,或通过过采样/欠采样处理类别不平衡。
  9. 特征工程:创建新特征、删除不相关特征、选择重要特征等。

        本文使用到的测试数据 property-data.csv 如下:

        上表包含了四种空数据:

  • n/a
  • NA
  • na

1 Pandas 清洗空值

        如果我们要删除包含空字段的行,可以使用 dropna() 方法,语法格式如下:

DataFrame.dropna(axis=0, how='any', thresh=None, subset=None, inplace=False)
  • axis:默认为 0,表示逢空值剔除整行,如果设置参数 axis=1 表示逢空值去掉整列。
  • how:默认为 'any' 如果一行(或一列)里任何一个数据有出现 NA 就去掉整行,如果设置 how='all' 一行(或列)都是 NA 才去掉这整行。
  • thresh:设置需要多少非空值的数据才可以保留下来的。
  • subset:设置想要检查的列。如果是多个列,可以使用列名的 list 作为参数。
  • inplace:如果设置 True,将计算得到的值直接覆盖之前的值并返回 None,修改的是源数据。

1.1  isnull() 判断各个单元格是否为空

        我们可以通过 isnull() 判断各个单元格是否为空。

import pandas as pd

df = pd.read_csv('property-data.csv')

print(df['NUM_BEDROOMS'])
print(df['NUM_BEDROOMS'].isnull())

        以上例子中我们看到 Pandas 没有把 n/a 和 NA 当作空数据,不符合我们要求,我们可以指定空数据类型:

import pandas as pd

missing_values = ["n/a", "na", "--"]
df = pd.read_csv('property-data.csv', na_values=missing_values)

print(df['NUM_BEDROOMS'])
print(df['NUM_BEDROOMS'].isnull())

1.2 dropna() 删除包含空数据的行

        接下来的实例演示了删除包含空数据的行。

import pandas as pd

df = pd.read_csv('property-data.csv')

new_df = df.dropna()

print(new_df.to_string())

        默认情况下,dropna() 方法返回一个新的 DataFrame,不会修改源数据。如果你要修改源数据 DataFrame, 可以使用 inplace = True 参数:

df.dropna(inplace = True)

        我们也可以移除指定列有空值的行:

import pandas as pd

df = pd.read_csv('property-data.csv')

df.dropna(subset=['ST_NUM'], inplace=True)

print(df.to_string())

1.3  fillna() 替换空字段

        我们也可以 fillna() 方法来替换一些空字段:

import pandas as pd

df = pd.read_csv('property-data.csv')

df.fillna(12345, inplace=True)

print(df.to_string())

        我们也可以指定某一个列来替换数据,例如使用 12345 替换 PID 为空数据:

df.fillna({ 'PID' : 12345 }, inplace = True)

        替换空单元格的常用方法是计算列的均值、中位数值或众数。Pandas使用 mean()、median() 和 mode() 方法计算列的均值(所有值加起来的平均值)、中位数值(排序后排在中间的数)和众数(出现频率最高的数)。

1.3.1 mean() 均值替换

import pandas as pd

df = pd.read_csv('property-data.csv')

x = df["ST_NUM"].mean()
df.fillna({ 'ST_NUM': x }, inplace=True)
print(df.to_string())

        以上实例输出结果如下,红框为计算的中位数替换来空单元格: 

1.3.2 median() 中位数替换

import pandas as pd

df = pd.read_csv('property-data.csv')
x = df["ST_NUM"].median()
df.fillna({'ST_NUM': x}, inplace=True)
print(df.to_string())

1.3.3 mode() 众数替换

import pandas as pd

df = pd.read_csv('property-data.csv')

x = df["ST_NUM"].mode()
df.fillna({'ST_NUM': x.values[0]}, inplace=True)
print(df.to_string())

        mode()可能会出现多个值,所以需要用values[index]指定。

2 Pandas 清洗格式错误数据

        数据格式错误的单元格会使数据分析变得困难,甚至不可能。我们可以通过包含空单元格的行,或者将列中的所有单元格转换为相同格式的数据。以下实例会格式化日期:

import pandas as pd

# 第三个日期格式错误
data = {
    "Date": ['2020/12/01', '2020/12/02', '20201226'],
    "duration": [50, 40, 45]
}

df = pd.DataFrame(data, index=["day1", "day2", "day3"])

df['Date'] = pd.to_datetime(df['Date'], format='mixed')

print(df.to_string())

3 Pandas 清洗错误数据

        数据错误也是很常见的情况,我们可以对错误的数据进行替换或移除。以下实例会替换错误年龄的数据:

import pandas as pd

person = {
    "name": ['Google', 'Bing', 'Taobao'],
    "age": [50, 40, 12345]  # 12345 年龄数据是错误的
}

df = pd.DataFrame(person)

df.loc[2, 'age'] = 30  # 修改数据

print(df.to_string())

        也可以设置条件语句,例如将 age 大于 120 的设置为 120:

import pandas as pd

person = {
    "name": ['Google', 'Bing', 'Taobao'],
    "age": [50, 200, 12345]
}

df = pd.DataFrame(person)

for x in df.index:
    if df.loc[x, "age"] > 120:
        df.loc[x, "age"] = 120

print(df.to_string())

        也可以将错误数据的行删除,例如将 age 大于 120 的删除:

import pandas as pd

person = {
    "name": ['Google', 'Runoob', 'Taobao'],
    "age": [50, 40, 12345]  # 12345 年龄数据是错误的
}

df = pd.DataFrame(person)

for x in df.index:
    if df.loc[x, "age"] > 120:
        df.drop(x, inplace=True)

print(df.to_string())

4 Pandas 清洗重复数据

        如果我们要清洗重复数据,可以使用 duplicated() 和 drop_duplicates() 方法。如果对应的数据是重复的,duplicated() 会返回 True,否则返回 False。

import pandas as pd

person = {
    "name": ['Google', 'Bing', 'Bing', 'Taobao'],
    "age": [50, 40, 40, 23]
}
df = pd.DataFrame(person)

print(df.duplicated())

        删除重复数据,可以直接使用drop_duplicates() 方法。

import pandas as pd

person = {
    "name": ['Google', 'Bing', 'Bing', 'Taobao'],
    "age": [50, 40, 40, 23]
}
df = pd.DataFrame(person)

df.drop_duplicates(inplace=True)
print(df)

5 常用方法及说明

操作方法/步骤说明常用函数/方法
缺失值处理填充缺失值使用指定的值(如均值、中位数、众数等)填充缺失值。df.fillna(value)
删除缺失值删除包含缺失值的行或列。df.dropna()
重复数据处理删除重复数据删除 DataFrame 中的重复行。df.drop_duplicates()
异常值处理异常值检测(基于统计方法)通过 Z-score 或 IQR 方法识别并处理异常值。自定义函数(如基于 Z-score 或 IQR)
替换异常值使用合适的值(如均值或中位数)替换异常值。自定义函数(如替换异常值)
数据格式转换转换数据类型将数据类型从一个类型转换为另一个类型,如将字符串转换为日期。df.astype()
日期时间格式转换转换字符串或数字为日期时间类型。pd.to_datetime()
标准化与归一化标准化将数据转换为均值为0,标准差为1的分布。StandardScaler()
归一化将数据缩放到指定的范围(如 [0, 1])。MinMaxScaler()
类别数据编码标签编码将类别变量转换为整数形式。LabelEncoder()
独热编码(One-Hot Encoding)将每个类别转换为一个新的二进制特征。pd.get_dummies()
文本数据处理去除停用词从文本中去除无关紧要的词,如 "the" 、 "is" 等。自定义函数(基于 nltk 或 spaCy
词干化与词形还原提取词干或恢复单词的基本形式。nltk.stem.PorterStemmer()
分词将文本分割成单词或子词。nltk.word_tokenize()
数据抽样随机抽样从数据中随机抽取一定比例的样本。df.sample()
上采样与下采样通过过采样(复制少数类样本)或欠采样(减少多数类样本)来平衡数据集中的类别分布。SMOTE()(上采样); RandomUnderSampler()(下采样)
特征工程特征选择选择对目标变量有影响的特征,去除冗余或无关特征。SelectKBest()
特征提取从原始数据中创建新的特征,提升模型的预测能力。PolynomialFeatures()
特征缩放对数值特征进行缩放,使其具有相同的量级。MinMaxScaler() 、 StandardScaler()
类别特征映射特征映射将类别变量映射为对应的数字编码。自定义映射函数
数据合并与连接合并数据将多个 DataFrame 按照某些列合并在一起,支持内连接、外连接、左连接、右连接等。pd.merge()
连接数据将多个 DataFrame 进行行或列拼接。pd.concat()
数据重塑数据透视表将数据根据某些维度进行分组并计算聚合结果。pd.pivot_table()
数据变形改变数据的形状,如从长格式转为宽格式或从宽格式转为长格式。df.melt() 、 df.pivot()
数据类型转换与处理字符串处理对字符串数据进行处理,如去除空格、转换大小写等。str.replace() 、 str.upper() 等
分组计算按照某个特征分组后进行聚合计算。df.groupby()
缺失值预测填充使用模型预测填充缺失值使用机器学习模型(如回归模型)预测缺失值,并填充缺失数据。自定义模型(如 sklearn.linear_model.LinearRegression
时间序列处理时间序列缺失值填充使用时间序列的方法(如前向填充、后向填充)填充缺失值。df.fillna(method='ffill')
滚动窗口计算使用滑动窗口进行时间序列数据的统计计算(如均值、标准差等)。df.rolling(window=5).mean()
数据转换与映射数据映射与替换将数据中的某些值替换为其他值。df.replace()

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/969838.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

CodeGPT + IDEA + DeepSeek,在IDEA中引入DeepSeek实现AI智能开发

CodeGPT IDEA DeepSeek,在IDEA中引入DeepSeek 版本说明 建议和我使用相同版本,实测2022版IDEA无法获取到CodeGPT最新版插件。(在IDEA自带插件市场中搜不到,可以去官网搜索最新版本) ToolsVersionIntelliJ IDEA202…

数字电路-基础逻辑门实验

基础逻辑门是数字电路设计的核心元件,它们执行的是基本的逻辑运算。通过这些基本运算,可以构建出更为复杂的逻辑功能。常见的基础逻辑门包括与门(AND)、或门(OR)、非门(NOT)、异或门…

常见的IP地址分配方式有几种:深入剖析与适用场景‌

在数字互联的世界里,IP地址如同网络世界的“门牌号”,是设备间通信的基础。随着网络技术的飞速发展,IP地址的分配方式也日趋多样化,以适应不同规模、不同需求的网络环境。本文将深入探讨当前主流的几种IP地址分配方式,…

【C语言】C语言 停车场管理系统的设计与实现(源码)【独一无二】

👉博__主👈:米码收割机 👉技__能👈:C/Python语言 👉专__注👈:专注主流机器人、人工智能等相关领域的开发、测试技术。 系列文章目录 目录 系列文章目录一、设计要求二、设…

【现代深度学习技术】深度学习计算 | GPU

【作者主页】Francek Chen 【专栏介绍】 ⌈ ⌈ ⌈PyTorch深度学习 ⌋ ⌋ ⌋ 深度学习 (DL, Deep Learning) 特指基于深层神经网络模型和方法的机器学习。它是在统计机器学习、人工神经网络等算法模型基础上,结合当代大数据和大算力的发展而发展出来的。深度学习最重…

蓝桥杯备考:贪心算法之纪念品分组

P1094 [NOIP 2007 普及组] 纪念品分组 - 洛谷 这道题我们的贪心策略就是每次找出最大的和最小的&#xff0c;如果他们加起来不超过我们给的值&#xff0c;就分成一组&#xff0c;如果超过了&#xff0c;就把大的单独成一组&#xff0c;小的待定 #include <iostream> #i…

【Elasticsearch】Mapping概述

以下是Elasticsearch中提到的关于Mapping的各模块概述&#xff1a; --- 1.Dynamic mapping&#xff08;动态映射&#xff09; 动态映射是指Elasticsearch在索引文档时&#xff0c;自动检测字段类型并创建字段映射的过程。当你首次索引一个文档时&#xff0c;Elasticsearch会根…

java商城解决方案

数字化时代&#xff0c;电子商务已成为企业拓展市场的重要渠道。对于想要建立在线商店的企业来说&#xff0c;选择正确的技术堆栈至关重要。 Java作为一种成熟且广泛使用的编程语言&#xff0c;为构建购物中心提供了强大的功能和灵活性。 商城Java源码&#xff1a;商城开发的核…

SSM开发(十二) mybatis的动态SQL

目录 一、为什么需要动态SQL? Mybatis 动态 sql 是做什么的? 二、多种动态 SQL 元素 三、示例 1、model定义 2、数据库定义 3、UserMapper接口及UserMapper.xml内容定义 if标签 choose/when/otherwise 标签 foreach标签 trim 标签 四、动态SQL注意 一、为什么需…

HCIA项目实践---OSPF的知识和原理总结

9.5 OSPF 9.5.1 从哪些角度评判一个动态路由协议的好坏&#xff1f; &#xff08;1&#xff09;选路佳&#xff08;是否会出环&#xff09; OSPF 协议采用链路状态算法&#xff0c;通过收集网络拓扑信息来计算最短路径&#xff0c;从根本上避免了路由环路的产生。 &#xff08…

HCIA项目实践---OSPF的基本配置

9.5.12 OSPF的基本配置 &#xff08;所搭环境如上图所示&#xff09; A 先配置IP地址 (先进入路由器R1的0/0/0接口配置IP地址&#xff0c;再进入环回接口配置IP地址) &#xff08;配置R2路由器的0/0/0和0/0/1以及环回接口的IP地址&#xff09; &#xff08;置R3路由器的0/0/0接…

github上创建person access token

在 GitHub 上创建 Personal Access Token&#xff08;PAT&#xff09; 时&#xff0c;权限设置非常重要。正确的权限设置可以确保 Token 能够访问所需的资源&#xff0c;同时避免授予过多权限带来的安全风险。以下是详细的权限设置说明&#xff1a; 1. 进入 Token 创建页面 登录…

【网络编程】之Udp网络通信步骤

【网络编程】之Udp网络通信步骤 TCP网络通信TCP网络通信的步骤对于服务器端对于客户端 TCP实现echo功能代码实现服务器端getsockname函数介绍 客户端效果展示 对比两组函数 TCP网络通信 TCP网络通信的步骤 对于服务器端 创建监听套接字。&#xff08;调用socket函数&#xff…

【教程】MySQL数据库学习笔记(七)——多表操作(持续更新)

写在前面&#xff1a; 如果文章对你有帮助&#xff0c;记得点赞关注加收藏一波&#xff0c;利于以后需要的时候复习&#xff0c;多谢支持&#xff01; 【MySQL数据库学习】系列文章 第一章 《认识与环境搭建》 第二章 《数据类型》 第三章 《数据定义语言DDL》 第四章 《数据操…

国自然地区基金|影像组学联合病理组学预测进展期胃癌术后预后的研究|基金申请·25-02-13

小罗碎碎念 今天和大家分享一个国自然地区科学项目&#xff0c;执行年限为2020.01&#xff5e;2023.12&#xff0c;直接费用为34万元。 胃癌在我国发病形势严峻&#xff0c;现有TNM分期预后评估存在局限&#xff0c;难以满足精准医疗需求。本项目运用“医工结合&#xff0c;学科…

nvm下载安装教程(node.js 下载安装教程)

前言 nvm 官网地址&#xff1a;https://nvm.uihtm.com nvm 是一个 node.js 的版本管理工具&#xff0c;相比于仅安装 node.js&#xff0c;我们可以使用 nvm 直接下载或卸载 node.js&#xff0c;可以同时安装多个 node.js 版本&#xff0c;并动态的切换本地环境中的 node.js 环…

项目BUG

项目BUG 前言 我创作这篇博客的目的是记录学习技术过程中的笔记。希望通过分享自己的学习经历&#xff0c;能够帮助到那些对相关领域感兴趣或者正在学习的人们。 项目BUG 1.低频率信号(100k或 200K以下)可以直接用一根导线焊接出几根导线来分几路&#xff0c;高频率信号只能…

Apollo 9.0 速度动态规划决策算法 – path time heuristic optimizer

文章目录 1. 动态规划2. 采样3. 代价函数3.1 障碍物代价3.2 距离终点代价3.3 速度代价3.4 加速度代价3.5 jerk代价 4. 回溯 这一章将来讲解速度决策算法&#xff0c;也就是SPEED_HEURISTIC_OPTIMIZER task里面的内容。Apollo 9.0使用动态规划算法进行速度决策&#xff0c;从类名…

吴恩达深度学习——词嵌入

内容来自https://www.bilibili.com/video/BV1FT4y1E74V&#xff0c;仅为本人学习所用。 文章目录 词表特征词嵌入的类比推理嵌入矩阵词嵌入Word2Vec跳字模型模型细节负采样 GloVe词向量&#xff08;了解&#xff09; 情绪分类 词表特征 使用 one-hot 对词汇进行编码时&#x…

数据结构——Makefile、算法、排序(2025.2.13)

目录 一、Makefile 1.功能 2.基本语法和相关操作 &#xff08;1&#xff09;创建Makefile文件 &#xff08;2&#xff09;编译规则 &#xff08;3&#xff09;编译 &#xff08;4&#xff09;变量 ①系统变量 ②自定义变量 二、 算法 1.定义 2.算法的设计 &#xff…