Pandas 数据清洗
数据清洗是对一些没有用的数据进行处理的过程。
很多数据集存在数据缺失、数据格式错误、错误数据或重复数据的情况,如果要使数据分析更加准确,就需要对这些没有用的数据进行处理。
数据清洗与预处理的常见步骤:
-
缺失值处理 :识别并填补缺失值,或删除含缺失值的行/列。
-
重复数据处理 :检查并删除重复数据,确保每条数据唯一。
-
异常值处理 :识别并处理异常值,如极端值、错误值。
-
数据格式转换 :转换数据类型或进行单位转换,如日期格式转换。
-
标准化与归一化 :对数值型数据进行标准化(如 Z-score)或归一化(如 Min-Max)。
-
类别数据编码 :将类别变量转换为数值形式,常见方法包括 One-Hot 编码和标签编码。
-
文本处理 :对文本数据进行清洗,如去除停用词、词干化、分词等。
-
数据抽样 :从数据集中抽取样本,或通过过采样/欠采样处理类别不平衡。
-
特征工程 :创建新特征、删除不相关特征、选择重要特征等。
在这个教程中,我们将利用 Pandas包来进行数据清洗。
本文使用到的测试数据 property-data.csv 如下:
上表包含了四种空数据:
- n/a
- NA
- —
- na
Pandas 清洗空值
如果我们要删除包含空字段的行,可以使用 dropna() 方法,语法格式如下:
DataFrame.dropna(axis=0, how='any', thresh=None, subset=None, inplace=False)
参数说明:
- axis:默认为 0 ,表示逢空值剔除整行,如果设置参数 axis=1 表示逢空值去掉整列。
- how:默认为 'any' 如果一行(或一列)里任何一个数据有出现 NA 就去掉整行,如果设置 how='all' 一行(或列)都是 NA 才去掉这整行。
- thresh:设置需要多少非空值的数据才可以保留下来的。
- subset:设置想要检查的列。如果是多个列,可以使用列名的 list 作为参数。
- inplace:如果设置 True,将计算得到的值直接覆盖之前的值并返回 None,修改的是源数据。
我们可以通过 isnull() 判断各个单元格是否为空。
importpandasaspddf=pd.read_csv('property-data.csv')print(df['NUM_BEDROOMS'])print(df['NUM_BEDROOMS'].isnull())
以上实例输出结果如下:
以上例子中我们看到 Pandas 把 n/a 和 NA 当作空数据,na 不是空数据,不符合我们要求,我们可以指定空数据类型:
importpandasaspdmissing_values=["n/a","na","--"]df=pd.read_csv('property-data.csv',na_values=missing_values)print(df['NUM_BEDROOMS'])print(df['NUM_BEDROOMS'].isnull())
以上实例输出结果如下:
接下来的实例演示了删除包含空数据的行。
importpandasaspddf=pd.read_csv('property-data.csv')new_df=df.dropna()print(new_df.to_string())
以上实例输出结果如下:
注意: 默认情况下,dropna() 方法返回一个新的 DataFrame,不会修改源数据。
如果你要修改源数据 DataFrame, 可以使用 inplace = True 参数:
importpandasaspddf=pd.read_csv('property-data.csv')df.dropna(inplace=True)print(df.to_string())
以上实例输出结果如下:
我们也可以移除指定列有空值的行:
importpandasaspddf=pd.read_csv('property-data.csv')df.dropna(subset=['ST_NUM'],inplace=True)print(df.to_string())
以上实例输出结果如下:
我们也可以 fillna() 方法来替换一些空字段:
importpandasaspddf=pd.read_csv('property-data.csv')df.fillna(12345,inplace=True)print(df.to_string())
以上实例输出结果如下:
我们也可以指定某一个列来替换数据:
importpandasaspddf=pd.read_csv('property-data.csv')df['PID'].fillna(12345,inplace=True)print(df.to_string())
以上实例输出结果如下:
替换空单元格的常用方法是计算列的均值、中位数值或众数。
Pandas使用 mean() 、 median() 和 mode() 方法计算列的均值(所有值加起来的平均值)、中位数值(排序后排在中间的数)和众数(出现频率最高的数)。
importpandasaspddf=pd.read_csv('property-data.csv')x=df["ST_NUM"].mean()df["ST_NUM"].fillna(x,inplace=True)print(df.to_string())
以上实例输出结果如下,红框为计算的均值替换来空单元格:
importpandasaspddf=pd.read_csv('property-data.csv')x=df["ST_NUM"].median()df["ST_NUM"].fillna(x,inplace=True)print(df.to_string())
以上实例输出结果如下,红框为计算的中位数替换来空单元格:
importpandasaspddf=pd.read_csv('property-data.csv')x=df["ST_NUM"].mode()df["ST_NUM"].fillna(x,inplace=True)print(df.to_string())
以上实例输出结果如下,红框为计算的众数替换来空单元格:
Pandas 清洗格式错误数据
数据格式错误的单元格会使数据分析变得困难,甚至不可能。
我们可以通过包含空单元格的行,或者将列中的所有单元格转换为相同格式的数据。
以下实例会格式化日期:
importpandasaspd# 第三个日期格式错误data={"Date":['2020/12/01','2020/12/02','20201226'],"duration":[50,40,45]}df=pd.DataFrame(data,index=["day1","day2","day3"])df['Date']=pd.to_datetime(df['Date'],format='mixed')print(df.to_string())
以上实例输出结果如下:
Date duration
day1 2020-12-01 50
day2 2020-12-02 40
day3 2020-12-26 45
Pandas 清洗错误数据
数据错误也是很常见的情况,我们可以对错误的数据进行替换或移除。
以下实例会替换错误年龄的数据:
importpandasaspdperson={"name":['Google','Runoob','Taobao'],"age":[50,40,12345]# 12345 年龄数据是错误的}df=pd.DataFrame(person)df.loc[2,'age']=30# 修改数据print(df.to_string())
以上实例输出结果如下:
name age
0 Google 50
1 Runoob 40
2 Taobao 30
也可以设置条件语句:
importpandasaspdperson={"name":['Google','Runoob','Taobao'],"age":[50,200,12345]}df=pd.DataFrame(person)forxindf.index:ifdf.loc[x,"age"]>120:df.loc[x,"age"]=120print(df.to_string())
以上实例输出结果如下:
name age
0 Google 50
1 Runoob 120
2 Taobao 120
也可以将错误数据的行删除:
importpandasaspdperson={"name":['Google','Runoob','Taobao'],"age":[50,40,12345]# 12345 年龄数据是错误的}df=pd.DataFrame(person)forxindf.index:ifdf.loc[x,"age"]>120:df.drop(x,inplace=True)print(df.to_string())
以上实例输出结果如下:
name age
0 Google 50
1 Runoob 40
Pandas 清洗重复数据
如果我们要清洗重复数据,可以使用 duplicated() 和 drop_duplicates() 方法。
如果对应的数据是重复的, duplicated() 会返回 True,否则返回 False。
importpandasaspdperson={"name":['Google','Runoob','Runoob','Taobao'],"age":[50,40,40,23]}df=pd.DataFrame(person)print(df.duplicated())
以上实例输出结果如下:
0 False 1 False 2 True 3 False dtype: bool
删除重复数据,可以直接使用 drop_duplicates() 方法。
importpandasaspdpersons={"name":['Google','Runoob','Runoob','Taobao'],"age":[50,40,40,23]}df=pd.DataFrame(persons)df.drop_duplicates(inplace=True)print(df)
以上实例输出结果如下:
name age
0 Google 50
1 Runoob 40
3 Taobao 23
常用方法及说明
数据清洗与预处理的常见方法:
| 操作 | 方法/步骤 | 说明 | 常用函数/方法 |
|---|---|---|---|
| 缺失值处理 | 填充缺失值 | 使用指定的值(如均值、中位数、众数等)填充缺失值。 |
df.fillna(value)
|
| 删除缺失值 | 删除包含缺失值的行或列。 |
df.dropna()
|
|
| 重复数据处理 | 删除重复数据 | 删除 DataFrame 中的重复行。 |
df.drop_duplicates()
|
| 异常值处理 | 异常值检测(基于统计方法) | 通过 Z-score 或 IQR 方法识别并处理异常值。 | 自定义函数(如基于 Z-score 或 IQR) |
| 替换异常值 | 使用合适的值(如均值或中位数)替换异常值。 | 自定义函数(如替换异常值) | |
| 数据格式转换 | 转换数据类型 | 将数据类型从一个类型转换为另一个类型,如将字符串转换为日期。 |
df.astype()
|
| 日期时间格式转换 | 转换字符串或数字为日期时间类型。 |
pd.to_datetime()
|
|
| 标准化与归一化 | 标准化 | 将数据转换为均值为0,标准差为1的分布。 |
StandardScaler()
|
| 归一化 | 将数据缩放到指定的范围(如 [0, 1])。 |
MinMaxScaler()
|
|
| 类别数据编码 | 标签编码 | 将类别变量转换为整数形式。 |
LabelEncoder()
|
| 独热编码(One-Hot Encoding) | 将每个类别转换为一个新的二进制特征。 |
pd.get_dummies()
|
|
| 文本数据处理 | 去除停用词 | 从文本中去除无关紧要的词,如 "the" 、 "is" 等。 |
自定义函数(基于
nltk
或
spaCy
)
|
| 词干化与词形还原 | 提取词干或恢复单词的基本形式。 |
nltk.stem.PorterStemmer()
|
|
| 分词 | 将文本分割成单词或子词。 |
nltk.word_tokenize()
|
|
| 数据抽样 | 随机抽样 | 从数据中随机抽取一定比例的样本。 |
df.sample()
|
| 上采样与下采样 | 通过过采样(复制少数类样本)或欠采样(减少多数类样本)来平衡数据集中的类别分布。 |
SMOTE()
(上采样);
RandomUnderSampler()
(下采样)
|
|
| 特征工程 | 特征选择 | 选择对目标变量有影响的特征,去除冗余或无关特征。 |
SelectKBest()
|
| 特征提取 | 从原始数据中创建新的特征,提升模型的预测能力。 |
PolynomialFeatures()
|
|
| 特征缩放 | 对数值特征进行缩放,使其具有相同的量级。 |
MinMaxScaler()
、
StandardScaler()
|
|
| 类别特征映射 | 特征映射 | 将类别变量映射为对应的数字编码。 | 自定义映射函数 |
| 数据合并与连接 | 合并数据 | 将多个 DataFrame 按照某些列合并在一起,支持内连接、外连接、左连接、右连接等。 |
pd.merge()
|
| 连接数据 | 将多个 DataFrame 进行行或列拼接。 |
pd.concat()
|
|
| 数据重塑 | 数据透视表 | 将数据根据某些维度进行分组并计算聚合结果。 |
pd.pivot_table()
|
| 数据变形 | 改变数据的形状,如从长格式转为宽格式或从宽格式转为长格式。 |
df.melt()
、
df.pivot()
|
|
| 数据类型转换与处理 | 字符串处理 | 对字符串数据进行处理,如去除空格、转换大小写等。 |
str.replace()
、
str.upper()
等
|
| 分组计算 | 按照某个特征分组后进行聚合计算。 |
df.groupby()
|
|
| 缺失值预测填充 | 使用模型预测填充缺失值 | 使用机器学习模型(如回归模型)预测缺失值,并填充缺失数据。 |
自定义模型(如
sklearn.linear_model.LinearRegression
)
|
| 时间序列处理 | 时间序列缺失值填充 | 使用时间序列的方法(如前向填充、后向填充)填充缺失值。 |
df.fillna(method='ffill')
|
| 滚动窗口计算 | 使用滑动窗口进行时间序列数据的统计计算(如均值、标准差等)。 |
df.rolling(window=5).mean()
|
|
| 数据转换与映射 | 数据映射与替换 | 将数据中的某些值替换为其他值。 |
df.replace()
|
填充缺失值:
importpandasaspd# 示例数据data={'Name':['Alice','Bob','Charlie',None],'Age':[25,30,None,35],'City':['New York','Los Angeles','Chicago','Houston']}df=pd.DataFrame(data)# 填充缺失的 "Age" 为均值df['Age'].fillna(df['Age'].mean(),inplace=True)print(df)
输出:
Name Age City
0 Alice 25.0 New York
1 Bob 30.0 Los Angeles
2 Charlie 30.0 Chicago
3 None 35.0 Houston
独热编码:
importpandasaspd# 示例数据data={'City':['New York','Los Angeles','Chicago','Houston']}df=pd.DataFrame(data)# 对 "City" 列进行 One-Hot 编码df_encoded=pd.get_dummies(df,columns=['City'])print(df_encoded)
输出:
City_Chicago City_Houston City_Los Angeles City_New York 0 0 0 0 1 1 0 0 1 0 2 1 0 0 0 3 0 1 0 0
标准化:
fromsklearn.preprocessingimportStandardScalerimportpandasaspd# 示例数据data={'Age':[25,30,35,40,45],'Salary':[50000,60000,70000,80000,90000]}df=pd.DataFrame(data)# 标准化数据scaler=StandardScaler()df_scaled=scaler.fit_transform(df)print(df_scaled)
输出:
[[-1.41421356 -1.41421356] [-0.70710678 -0.70710678] [ 0. 0. ] [ 0.70710678 0.70710678] [ 1.41421356 1.41421356]]