博客
关于我
pandas基本使用方法和表的合并
阅读量:682 次
发布时间:2019-03-17

本文共 1817 字,大约阅读时间需要 6 分钟。

pandas数据处理实例及其应用

一、pandas基础使用

在进行pandas数据处理之前,首先需要导入pandas库。以下示例展示了如何读取CSV文件并进行基本操作:

import pandas as pd# 读取CSV文件,第一行为标题df = pd.DataFrame(pd.read_csv("D:/test/test.csv", header=0))# 可以选择指定编码方式(如中文需要设置编码)df = pd.DataFrame(pd.read_csv("D:/test/test.csv", header=0, encoding='gbk'))

运行上述代码后,可以通过以下命令查看数据集信息:

print("Excel的文件信息:")print(df.info())

要提取Excel中第一行数据,可以通过以下方式获取:

for key in df.keys():    print(key)# 获取第一行数据for value in df.values:    print(value)

二、数据处理操作

1. 统计字段数量

使用count方法可以统计每一行和每一列中缺失值的数量:

count_row = df.count(axis=1)print("统计Excel中的每一行的字段数量:")print(count_row)count_column = df.count(axis=0)print("统计Excel中的每一列的字段数量:")print(count_column)

2. 使用[count_values()]方法提取统计结果

可以通过遍历count_column的结果来获取具体的字段和对应的统计值:

for key in count_column.keys():    print(key)for value in count_column.values:    print(value)

三、数据表的合并操作

在实际应用中,常需要对数据进行合并操作。以下是以下几种合并方式及其适用场景:

1. 内连接(inner

内连接是默认的连接方式,只有当左右表中共同拥有的字段值不为空时,才会保留数据。示例如下:

df_table = pd.DataFrame(pd.read_csv("D:/test/test.csv", header=0))df_table1 = pd.DataFrame(pd.read_csv("D:/test/test1.csv", header=0, encoding='gbk'))# 内连接:提取左右表共同拥有的数据df_inner = pd.merge(df_table, df_table1, how='inner')print("内连接:提取左右表id相同的数据")print(df_inner)

2. 左连接(left

左连接会保留左表的所有数据,右表仅在左表的字段值不为空时显示相关记录:

# 左连接:提取左表中全部数据,右表补充右表中id相同的字段和数据df_left = pd.merge(df_table, df_table1, how='left')print("左连接:提取左表中全部数据,右表数据补充右表中id相同的字段和数据")print(df_left)

3. 右连接(right

右连接相反,保留右表的所有数据,左表仅在右表字段值不为空时显示相关记录:

# 右连接:提取右表中全部数据,左表数据补充右表中id相同的字段和数据df_right = pd.merge(df_table, df_table1, how='right')print("右连接:提取右表中全部数据,左表数据补充右表中id相同的字段和数据")print(df_right)

4. 外连接(outer

外连接会包含所有存在的数据,包括左右表中字段值为空的部分:

# outer连接:保留所有字段值df_outer = pd.merge(df_table, df_table1, how='outer')print("outer连接:保留所有字段值,包括id为空的数据")print(df_outer)

四、总结

通过上述具体实例,能够清晰地了解如何在pandas中读取、处理和合并数据。无论是内连接、左连接还是外连接,都可以根据实际需求选择最适合的方式进行数据操作。

转载地址:http://ovgqz.baihongyu.com/

你可能感兴趣的文章
Nginx配置如何一键生成
查看>>
Nginx配置实例-负载均衡实例:平均访问多台服务器
查看>>
NHibernate学习[1]
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI同步MySql数据_到SqlServer_错误_驱动程序无法通过使用安全套接字层(SSL)加密与SQL Server_Navicat连接SqlServer---大数据之Nifi工作笔记0047
查看>>
Nifi同步过程中报错create_time字段找不到_实际目标表和源表中没有这个字段---大数据之Nifi工作笔记0066
查看>>
NIFI大数据进阶_离线同步MySql数据到HDFS_02_实际操作_splitjson处理器_puthdfs处理器_querydatabasetable处理器---大数据之Nifi工作笔记0030
查看>>
NIFI大数据进阶_连接与关系_设置数据流负载均衡_设置背压_设置展现弯曲_介绍以及实际操作---大数据之Nifi工作笔记0027
查看>>
NIFI数据库同步_多表_特定表同时同步_实际操作_MySqlToMysql_可推广到其他数据库_Postgresql_Hbase_SqlServer等----大数据之Nifi工作笔记0053
查看>>
NIFI汉化_替换logo_二次开发_Idea编译NIFI最新源码_详细过程记录_全解析_Maven编译NIFI避坑指南001---大数据之Nifi工作笔记0068
查看>>
NIFI集群_内存溢出_CPU占用100%修复_GC overhead limit exceeded_NIFI: out of memory error ---大数据之Nifi工作笔记0017
查看>>
NIFI集群_队列Queue中数据无法清空_清除队列数据报错_无法删除queue_解决_集群中机器交替重启删除---大数据之Nifi工作笔记0061
查看>>
NIH发布包含10600张CT图像数据库 为AI算法测试铺路
查看>>
Nim教程【十二】
查看>>
Nim游戏
查看>>
NIO ByteBuffer实现原理
查看>>