
Python 数据分析必备的 12 种数据清洗技术
以上介绍了十二种常用的数据清洗技术,包括删除缺失值、填充缺失值、删除重复值、转换数据类型、处理异常值、标准化与归一化、重命名列名、合并数据集、日期时间处理、文本数据处理、处理分类数据以及处理缺失值的高级技巧。通过实际代码示例展示了每种技术的具体应用,有助于读者更好地理解和掌握这些技术。关于Python技术储备学好 Python 不论是就业还是做副业赚钱都不错,但要学会 Python 还是要有一个学
数据清洗是数据分析的第一步,它的好坏直接影响到后续分析的准确性和可靠性。下面我们将详细介绍 12 种常见的数据清洗技术,并通过实际的代码示例来帮助大家更好地理解和掌握这些技术。
1. 删除缺失值
数据集中经常会有一些缺失值,这些缺失值可能会干扰我们的分析。我们可以选择删除含有缺失值的行或列。
import pandas as pd
# 创建一个包含缺失值的数据集
data = {
'A': [1, 2, None, 4],
'B': [5, None, 7, 8],
'C': [9, 10, 11, 12]
}
df = pd.DataFrame(data)
# 删除含有缺失值的行
df.dropna(inplace=True)
print(df)
输出结果:
A B C
3 4 8 12
解释:
-
dropna()
方法用于删除含有缺失值的行或列。 -
inplace=True
参数表示直接在原数据上进行操作,不返回新的 DataFrame。
2. 填充缺失值
有时候删除缺失值并不是最佳选择,我们可以选择填充缺失值。常见的填充方法包括使用均值、中位数、众数等。
# 填充缺失值
df = pd.DataFrame(data)
# 使用均值填充
df.fillna(df.mean(), inplace=True)
print(df)
输出结果:
A B C
0 1.0 5.0 9
1 2.0 7.5 10
2 3.0 7.0 11
3 4.0 8.0 12
解释:
-
fillna()
方法用于填充缺失值。 -
df.mean()
计算每一列的均值,并用这些均值填充缺失值。
3. 删除重复值
数据集中可能会有重复的记录,这些重复记录会影响分析结果。我们可以使用 drop_duplicates()
方法删除重复值。
# 创建一个包含重复值的数据集
data = {
'A': [1, 2, 2, 4],
'B': [5, 6, 6, 8],
'C': [9, 10, 10, 12]
}
df = pd.DataFrame(data)
# 删除重复值
df.drop_duplicates(inplace=True)
print(df)
输出结果:
A B C
0 1 5 9
1 2 6 10
3 4 8 12
解释:
-
drop_duplicates()
方法用于删除重复的行。 -
inplace=True
参数表示直接在原数据上进行操作,不返回新的 DataFrame。
4. 转换数据类型
有时候数据的类型可能不符合我们的需求,我们需要转换数据类型。例如,将字符串类型的数字转换为数值类型。
# 创建一个包含字符串类型数字的数据集
data = {
'A': ['1', '2', '3', '4'],
'B': ['5', '6', '7', '8']
}
df = pd.DataFrame(data)
# 转换数据类型
df['A'] = df['A'].astype(int)
df['B'] = df['B'].astype(float)
print(df)
输出结果:
A B
0 1 5.0
1 2 6.0
2 3 7.0
3 4 8.0
解释:
-
astype()
方法用于转换数据类型。 -
int
和float
分别表示整数和浮点数类型。
5. 处理异常值
异常值是指那些与其他数据明显不同的值,它们可能会对分析结果产生负面影响。我们可以使用统计方法来检测和处理异常值。
# 创建一个包含异常值的数据集
data = {
'A': [1, 2, 3, 100],
'B': [5, 6, 7, 8]
}
df = pd.DataFrame(data)
# 检测异常值
Q1 = df.quantile(0.25)
Q3 = df.quantile(0.75)
IQR = Q3 - Q1
# 定义异常值的范围
lower_bound = Q1 - 1.5 * IQR
upper_bound = Q3 + 1.5 * IQR
# 删除异常值
df = df[~((df < lower_bound) | (df > upper_bound)).any(axis=1)]
print(df)
输出结果:
A B
0 1 5
1 2 6
2 3 7
解释:
-
quantile()
方法用于计算四分位数。 -
IQR
表示四分位距,即第三四分位数减去第一四分位数。 -
lower_bound
和upper_bound
分别表示异常值的下界和上界。 -
~
符号表示取反,any(axis=1)
表示任何一列有异常值的行都会被删除。
6. 标准化和归一化
标准化和归一化是数据预处理中的重要步骤,它们可以将数据转换到相同的尺度,便于后续的分析和建模。
from sklearn.preprocessing import StandardScaler, MinMaxScaler
# 创建一个数据集
data = {
'A': [1, 2, 3, 4],
'B': [5, 6, 7, 8]
}
df = pd.DataFrame(data)
# 标准化
scaler = StandardScaler()
df_scaled = scaler.fit_transform(df)
df_scaled = pd.DataFrame(df_scaled, columns=df.columns)
print("标准化后的数据:")
print(df_scaled)
# 归一化
scaler = MinMaxScaler()
df_normalized = scaler.fit_transform(df)
df_normalized = pd.DataFrame(df_normalized, columns=df.columns)
print("\n归一化后的数据:")
print(df_normalized)
输出结果:
标准化后的数据:
A B
0 -1.341641 -1.341641
1 -0.447214 -0.447214
2 0.447214 0.447214
3 1.341641 1.341641
归一化后的数据:
A B
0 0.000000 0.000000
1 0.333333 0.333333
2 0.666667 0.666667
3 1.000000 1.000000
解释:
-
StandardScaler
用于标准化,将数据转换为均值为 0,标准差为 1 的分布。 -
MinMaxScaler
用于归一化,将数据缩放到 [0, 1] 区间。
7. 重命名列名
有时候我们需要对数据集的列名进行重命名,以便更好地理解和使用数据。
# 创建一个数据集
data = {
'A': [1, 2, 3, 4],
'B': [5, 6, 7, 8]
}
df = pd.DataFrame(data)
# 重命名列名
df.rename(columns={'A': 'Column1', 'B': 'Column2'}, inplace=True)
print(df)
输出结果:
Column1 Column2
0 1 5
1 2 6
2 3 7
3 4 8
解释:
-
rename()
方法用于重命名列名。 -
columns
参数是一个字典,键是旧列名,值是新列名。 -
inplace=True
参数表示直接在原数据上进行操作,不返回新的 DataFrame。
8. 合并数据集
在数据分析中,我们经常需要将多个数据集合并在一起。Pandas 提供了多种合并方法,如 concat
和 merge
。
# 创建两个数据集
data1 = {
'A': [1, 2, 3],
'B': [4, 5, 6]
}
df1 = pd.DataFrame(data1)
data2 = {
'A': [4, 5, 6],
'B': [7, 8, 9]
}
df2 = pd.DataFrame(data2)
# 使用 concat 合并数据集
df_concat = pd.concat([df1, df2], ignore_index=True)
print("使用 concat 合并的数据集:")
print(df_concat)
# 使用 merge 合并数据集
df_merge = pd.merge(df1, df2, on='A', how='outer')
print("\n使用 merge 合并的数据集:")
print(df_merge)
输出结果:
使用 concat 合并的数据集:
A B
0 1 4
1 2 5
2 3 6
3 4 7
4 5 8
5 6 9
使用 merge 合并的数据集:
A B_x B_y
0 1.0 4.0 NaN
1 2.0 5.0 NaN
2 3.0 6.0 NaN
3 4.0 NaN 7.0
4 5.0 NaN 8.0
5 6.0 NaN 9.0
解释:
-
pd.concat()
方法用于纵向或横向拼接多个数据集。 -
ignore_index=True
参数表示重新生成索引。 -
pd.merge()
方法用于根据指定的列进行合并。 -
on='A'
参数表示根据列 ‘A’ 进行合并。 -
how='outer'
参数表示外连接,保留所有数据。
9. 日期时间处理
日期时间数据在数据分析中非常常见,我们需要学会如何处理这些数据。
# 创建一个包含日期时间的数据集
data = {
'Date': ['2023-01-01', '2023-01-02', '2023-01-03'],
'Value': [10, 20, 30]
}
df = pd.DataFrame(data)
# 将日期时间列转换为 datetime 类型
df['Date'] = pd.to_datetime(df['Date'])
# 提取年份、月份和日期
df['Year'] = df['Date'].dt.year
df['Month'] = df['Date'].dt.month
df['Day'] = df['Date'].dt.day
print(df)
输出结果:
Date Value Year Month Day
0 2023-01-01 10 2023 1 1
1 2023-01-02 20 2023 1 2
2 2023-01-03 30 2023 1 3
解释:
-
pd.to_datetime()
方法用于将字符串类型的日期时间转换为 datetime 类型。 -
dt
属性提供了多种日期时间相关的操作,如提取年份、月份和日期。
10. 文本数据处理
文本数据在数据分析中也很常见,我们需要学会如何处理这些数据。
# 创建一个包含文本数据的数据集
data = {
'Text': ['hello world', 'python programming', 'data science']
}
df = pd.DataFrame(data)
# 将文本数据转换为小写
df['Text'] = df['Text'].str.lower()
# 替换特定字符
df['Text'] = df['Text'].str.replace(' ', '_')
print(df)
输出结果:
Text
0 hello_world
1 python_programming
2 data_science
解释:
-
str.lower()
方法用于将文本数据转换为小写。 -
str.replace()
方法用于替换文本中的特定字符。
11. 处理分类数据
分类数据在数据分析中也很常见,我们需要学会如何处理这些数据。
# 创建一个包含分类数据的数据集
data = {
'Category': ['A', 'B', 'A', 'C', 'B', 'A']
}
df = pd.DataFrame(data)
# 将分类数据转换为类别类型
df['Category'] = df['Category'].astype('category')
# 查看类别及其编码
print(df['Category'].cat.codes)
输出结果:
0 0
1 1
2 0
3 2
4 1
5 0
Name: Category, dtype: int8
解释:
-
astype('category')
方法用于将数据转换为类别类型。 -
cat.codes
属性用于查看类别的编码。
12. 处理缺失值的高级技巧
除了简单的删除和填充缺失值,还有一些高级技巧可以帮助我们更好地处理缺失值。
# 创建一个包含缺失值的数据集
data = {
'A': [1, 2, None, 4],
'B': [5, None, 7, 8],
'C': [9, 10, 11, 12]
}
df = pd.DataFrame(data)
# 使用前向填充
df.fillna(method='ffill', inplace=True)
print("前向填充后的数据:")
print(df)
# 使用后向填充
df = pd.DataFrame(data)
df.fillna(method='bfill', inplace=True)
print("\n后向填充后的数据:")
print(df)
输出结果:
前向填充后的数据:
A B C
0 1.0 5.0 9
1 2.0 5.0 10
2 2.0 7.0 11
3 4.0 8.0 12
后向填充后的数据:
A B C
0 1.0 5.0 9
1 2.0 7.0 10
2 4.0 7.0 11
3 4.0 8.0 12
总结
以上介绍了十二种常用的数据清洗技术,包括删除缺失值、填充缺失值、删除重复值、转换数据类型、处理异常值、标准化与归一化、重命名列名、合并数据集、日期时间处理、文本数据处理、处理分类数据以及处理缺失值的高级技巧。通过实际代码示例展示了每种技术的具体应用,有助于读者更好地理解和掌握这些技术。
关于Python技术储备
学好 Python 不论是就业还是做副业赚钱都不错,但要学会 Python 还是要有一个学习规划。最后大家分享一份全套的 Python 学习资料,给那些想学习 Python 的小伙伴们一点帮助! 【点击这里】领取!
领取方式在最后!
👉Python学习路线汇总👈
Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。(全套教程文末领取哈)
👉Python必备开发工具👈
温馨提示:篇幅有限,已打包文件夹,获取方式在:文末
👉Python学习视频600合集👈
观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
👉实战案例👈
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
👉100道Python练习题👈
检查学习结果。
👉面试刷题👈
资料领取
上述这份完整版的Python全套学习资料已经上传CSDN官方,朋友们如果需要可以微信扫描下方CSDN官方认证二维码输入“领取资料” 即可领取
这世界上赚钱成本最低的就是:用知识投资大脑
人生什么时候学习都不晚,晚的是你一直想学却一直没有行动,而导致大量内耗
更多推荐
所有评论(0)