Pandas 高级操作

替换操作

替换操作可以同步作用于 Series 和 DataFrame 中。替换方法为 replace。替换操作包括单值替换和多指替换两种方式:

  • 单值替换

    • 普通替换: 替换所有符合要求的元素,to_replace=15, value='e'
    • 按列指定单值替换: to_replace={列标签: 替换值}, value='value'
  • 多值替换

    • 列表替换:替换列表中所有元素,to_replace=[], value=[]
    • 字典替换(推荐),to_replace={to_replace: value, to_replace: value}

首先,创建一个 5 行 6 列的数据:

df = DataFrame(np.random.randint(0, 100, size=(5, 6)))
df

创建出来的数据为:

	0	1	2	3	4	5
0	75	15	80	77	11	67
1	99	90	10	62	78	54
2	67	73	95	1	76	84
3	86	4	36	39	87	7
4	68	65	56	15	48	68

单值替换

普通替换

将列表中的 4 替换成 four,就是:

df.replace(to_replace=4, value='four')

替换完成的结果为:

	0	1	2	3	4	5
0	75	15	80	77	11	67
1	99	90	10	62	78	54
2	67	73	95	1	76	84
3	86	four	36	39	87	7
4	68	65	56	15	48	68

有一点要注意,如果新值的数据类型发生变化,那么整个列的数据类型都会改变。比如,查看一下替换后的数据的列信息:

df.replace(to_replace=4, value='four').info()

我们看到,第二列的数据类型成了 object,也就是字符串:

<class 'pandas.core.frame.DataFrame'>
RangeIndex: 5 entries, 0 to 4
Data columns (total 6 columns):
0    5 non-null int32
1    5 non-null object
2    5 non-null int32
3    5 non-null int32
4    5 non-null int32
5    5 non-null int32
dtypes: int32(5), object(1)
memory usage: 220.0+ bytes

指定列替换

如果在数据表中有多个我们要替换的元素,比如 67 出现了两次。如果我们直接使用上面的方法

df.replace(to_replace=67, value=666)

两个 67 都会被替换成 666:

	0	1	2	3	4	5
0	75	15	80	77	11	666
1	99	90	10	62	78	54
2	666	73	95	1	76	84
3	86	4	36	39	87	7
4	68	65	56	15	48	68

如果我们只想替换某一列中的 67,可以通过字典指定列替换。其中,字典的键为要替换的数据所在列,值为要替换的数据:

df.replace(to_replace={-1: 67}, value=777)    # 列索引也可以写成5,一样的

这样只有最后一列中的 67 被修改了,第一列的 67 仍然存在:

	0	1	2	3	4	5
0	75	15	80	77	11	67
1	99	90	10	62	78	54
2	67	73	95	1	76	84
3	86	4	36	39	87	7
4	68	65	56	15	48	68

多值替换

有时候,我们要替换很多数据。如果一个一个替换,就有些麻烦。这时,我们可以通过多值替换,批量完成替换操作。

列表替换

也就是把多个替换的旧值与新值分别以列表的形式传给 to_replace 和 value 参数,要注意旧值与新值要一一对应,比如:

df.replace(to_replace=[1, 7], value=['one', 'seven'])

数据中的 1 就替换成了 one,7 替换成了 seven:

	0	1	2	3	4	5
0	75	15	80	77	11	67
1	99	90	10	62	78	54
2	67	73	95	one	76	84
3	86	4	36	39	87	seven
4	68	65	56	15	48	68

字典替换(推荐)

列标替换虽然可以实现多值替换,但是看起来并不直观,可读性不高。我们可以将旧值与新值以字典的键值对形式,传给 to_replace:

df.replace(to_replace={15: 'piu', 95: 'pia'})

同样实现了多值替换:

	0	1	2	3	4	5
0	75	piu	80	77	11	67
1	99	90	10	62	78	54
2	67	73	pia	1	76	84
3	86	4	36	39	87	7
4	68	65	56	piu	48	68

映射操作

概念:创建一个映射关系列表,把 values 元素和一个特定的标签或者字符串绑定(给一个元素值提供不同的表现形式)。

map 只是 Serise 的函数,只能由 Series 调用。

创建一个 df,两列分别是姓名和薪资,然后给其名字起对应的英文名:

dic = {
    'name': ['张三', '李四', '张三'],
    'salary': [15000, 20000, 15000],
}
df = DataFrame(data=dic)
df

创建出来的数据为:

	name	salary
0	张三	15000
1	李四	20000
2	张三	15000

然后我们用字典创建一个映射关系表,制定了映射的对照关系。通过这个映射关系,就可以实现映射:

map_dic = {
    '张三': 'Tom',
    '李四': 'Jerry',
}
df['nickname'] = df['name'].map(map_dic)
df

实际上,map 就是将原数据中的内容,用字典的键对应的值替换掉了:

	name	salary	nickname
0	张三	15000	Tom
1	李四	20000	Jerry
2	张三	15000	Tom

运算工具

Series 的 map 方法

需求:还是使用上面的数据,假设超过 3000 部分的钱需要缴纳 50% 的税,计算每个人的税后薪资。

我们可以通过定义一个计算税后薪资的函数,然后使用 map 方法获取税后薪水数据:

def after_tax(salary):
    if salary > 3000:
        salary -= (salary - 3000) * 0.5
    return salary
df['after_tax'] = df['salary'].map(after_tax)
df

得到的新的一列 after_tax 就是税后的薪水了:

	name	salary	nickname	after_tax
0	张三	15000	Tom	9000.0
1	李四	20000	Jerry	11500.0
2	张三	15000	Tom	9000.0

DataFrame 中的 apply 操作

apply 是 df 的中运算工具,将运算作用到 df 的行或者列中。

首先创建一个 5 行 3 列的 DataFrame:

df = DataFrame(np.random.randint(0, 100, size=(5, 3)))
df

得到的数据为:

	0	1	2
0	80	17	87
1	23	36	2
2	41	28	99
3	3	72	61
4	16	47	12

使用 df 的 apply,即可对每一列进行指定的操作:

def my_add(num):
    # 这里的num为df中的每一列,或者说每一个Series
    # 既然是列,四则运算是可以的,但是复杂的操作无法运算
    # print(num)    # 如果搞不懂,打印出来就看明白了
    return num + 10
df.apply(my_add, axis=0)

每一列的所有元素都增加了 10:

	0	1	2
0	90	27	97
1	33	46	12
2	51	38	109
3	13	82	71
4	26	57	22

apply 方法将会把 df 中的每一行/列传入到运算函数中。我们可以对这一行/列数据进行四则运算,但是不能进行更复杂的运算操作。当然,因为是以行/列传入,我们可以对数据进行一些聚合运算。

DataFrame 的 applymap 方法

applymap 可以将某种运算作用到 df 的每一个元素中:

def my_add(num):
    # 这里的num为df中的每一个数据
    # 可以对这个数据进行更复杂的运算
    # print(num)    # 如果搞不懂,打印出来就看明白了
    return num + 10
df.applymap(my_add)

每个元素都增加了 10:

	0	1	2
0	90	27	97
1	33	46	12
2	51	38	109
3	13	82	71
4	26	57	22

排序实现的随机抽样

有的时候,如果数据量很大的话,对它们全部进行运算是不现实的。这时,我们可以从中抽取一部分数据,降低运算量。

随机抽样的思路是先将原来的数据的顺序打乱,也就是进行随机排序,然后提取新数据中的前几行。

将数据打乱,我们可以用到 DataFrame 的两个方法:

  • take(),可以根据指定的索引取样
  • np.random.permutation(n),用来创建从 0 到 n - 1 顺序随机的数组

首先创建一些数据:

df = DataFrame(np.random.randint(0, 100, size=(100, 3)), columns=['A', 'B', 'C'])
df

然后,指定索引进行取样,比如取索引为 4、11、2、7 的几行数据:

df.take(indices=[4, 11, 2, 7], axis=0)
  • indices 用来指定我们需要的数据的索引,注意这里只能用隐式索引
  • axis 用来指定方向,与 drop 系列相同,0 为横向取样,1 为纵向取样

我们就成功拿到这些行的数据:

	A	B	C
4	37	95	30
11	73	73	16
2	83	60	43
7	42	41	11

对列取样道理相同,只是把 axis 指定为 1 即可。注意不能用显式索引。就不举例子了。

不难想象,如果我们有一个随机的索引数组,通过 take 取样,即可实现对数据的重新排列。

怎么获得顺序随机的索引数组呢?可以使用 np.randompermutation 方法来生成:

np.random.permutation(5)

这样就成了一组随机顺序的索引数组:

array([1, 3, 0, 2, 4])

因为我们的数据有 100 行,只需生成 100 个随机索引数组,然后用这个数组进行取样,即可得到随机顺序的数据:

df.take(np.random.permutation(100))

我们就实现了对原数据的随机排序:

	A	B	C
94	53	74	56
66	51	32	54
19	85	62	49
86	59	70	93
...	...	...	...
20	28	26	33
82	97	96	0
84	5	17	48
2	83	60	43
100 rows × 3 columns

然后我们提取其中前几条,即实现了对原数据的随机取样,比如只提取前 10 条数据:

df.take(np.random.permutation(100))[:10]

就拿到了随机的 10 条数据,因为又运行了一次随机取样,所以数据跟上面的是不同的:

	A	B	C
55	97	63	69
64	23	69	99
70	18	1	5
10	10	28	47
51	87	24	28
3	80	52	92
84	5	17	48
38	12	99	22
67	76	11	65
83	51	91	24

数据的分类分组处理

在 MySQL 中有一个分组操作,可以用来对某一类数据进行聚合运算等处理。类似地,DataFrame 数据也可以进行分组操作,使用的方法也是 groupby。

数据分类处理的核心:

  • groupby() 函数分组
  • groups 属性查看分组情况

首先,创建数据:

df = DataFrame({
    'item': ['Apple', 'Banana', 'Orange', 'Banana', 'Orange', 'Apple'],
    'price': [4, 3, 3, 2.5, 4,2],
    'color': ['red', 'yellow', 'yellow', 'green', 'green', 'green'],
    'weight': [12, 20, 50, 30, 20, 44]
})
df

创建出来的数据就是:

	color	item	price	weight
0	red	Apple	4.0	12
1	yellow	Banana	3.0	20
2	yellow	Orange	3.0	50
3	green	Banana	2.5	30
4	green	Orange	4.0	20
5	green	Apple	2.0	44

使用 group 对水果种类 item 进行分组:

df.groupby('item')

分组得到了对象:

<pandas.core.groupby.DataFrameGroupBy object at 0x000001A2D3D741D0>

我们可以通过 groups 方法查看 group 对象的信息:

df.groupby('item').groups

我们看到,总共分成了三组,按照水果名分配的。每个水果的索引也记录在里面。

{'Apple': Int64Index([0, 5], dtype='int64'),
 'Banana': Int64Index([1, 3], dtype='int64'),
 'Orange': Int64Index([2, 4], dtype='int64')}

我们可以对分组对象使用 mean 方法,计算平均值:

df.groupby('item').mean()

只有数值型数据才能进行这类聚合操作,所以我们只得到了每种水果价格和重量的平均值,颜色信息被舍弃掉了。水果种类成了每一行的显式索引:

	price	weight
item		
Apple	3.00	28
Banana	2.75	25
Orange	3.50	35

如果我们只想获取价格信息,可以对结果的列进行索引取值:

df.groupby('item').mean()['price']

得到了水果价格的平均值信息:

item
Apple     3.00
Banana    2.75
Orange    3.50
Name: price, dtype: float64

但是我们一般不这么计算分组的平均值。因为这样做,会对分组中说有的列都进行聚合运算(这里是求平均值),将会消耗很多的资源。

更推荐的方式是将分组数据先索引取值,然后再进行聚合求平均值:

df.groupby('item')['price'].mean()

结果还是一样的,只不过这样只会对价格列进行运算,极大节省了资源:

item
Apple     3.00
Banana    2.75
Orange    3.50
Name: price, dtype: float64

光拿到均价并不能让我们满足,我们还需要将这些均值合并到原来的数据表中。我们可以通过映射的方法来实现:

mean_price = df.groupby('item')['price'].mean()
price_dict = mean_price.to_dict()
df['mean_price'] = df['item'].map(price_dict)
df

映射需要用到映射关系表,一般是个字典。这个字典的键就是数据表中的需要关联的数据,值就是要映射成为的值。通过 Series 的 to_dict 方法,刚好可以生成这样的对应关系。于是,平均值就成功添加到数据表中:

	color	item	price	weight	mean_price
0	red	Apple	4.0	12	3.00
1	yellow	Banana	3.0	20	2.75
2	yellow	Orange	3.0	50	3.50
3	green	Banana	2.5	30	2.75
4	green	Orange	4.0	20	3.50
5	green	Apple	2.0	44	3.00

同样地,如果我们想要把每种颜色的水果的平均重量放到数据表中,实现分组聚合操作:

mean_weight = df.groupby('color')['weight'].mean()
weight_dict = mean_weight.to_dict()
df['mean_weight'] = df['color'].map(weight_dict)
df

合并后的数据为:

	color	item	price	weight	mean_price	mean_weight
0	red	Apple	4.0	12	3.00	12.000000
1	yellow	Banana	3.0	20	2.75	35.000000
2	yellow	Orange	3.0	50	3.50	35.000000
3	green	Banana	2.5	30	2.75	31.333333
4	green	Orange	4.0	20	3.50	31.333333
5	green	Apple	2.0	44	3.00	31.333333

高级数据聚合

使用 groupby 分组后,也可以使用 transform 和 apply 提供自定义函数实现更多的运算

  • df.groupby('item')['price'].sum() <===> df.groupby('item')['price'].apply(sum)
  • transform 和 apply 都会进行运算,在 transform 或者 apply 中传入函数即可
  • transform 和 apply 也可以传入一个 lambda 表达式

仍旧使用上面的数据,将每一种水果的价格提升平均值的 15 个百分点,将提升后的价格汇总到源数据中:

def add_price(num):
    # num是每一个分组的数据,可对其进行四则运算和聚合操作
    return num + num.mean()
df['new_price'] = df.groupby('item')['price'].apply(add_price)
df

得到的结果为:

	color	item	price	weight	mean_price	mean_weight	new_price
0	red	Apple	4.0	12	3.00	12.000000	7.00
1	yellow	Banana	3.0	20	2.75	35.000000	5.75
2	yellow	Orange	3.0	50	3.50	35.000000	6.50
3	green	Banana	2.5	30	2.75	31.333333	5.25
4	green	Orange	4.0	20	3.50	31.333333	7.50
5	green	Apple	2.0	44	3.00	31.333333	5.00

我们也可以使用 transform 方法达成同样的任务:

df.groupby('item')['price'].transform(lambda num: num + num.mean())

这里我用匿名函数代替了原来的函数,都是一样的,结果为:

0    7.00
1    5.75
2    6.50
3    5.25
4    7.50
5    5.00
Name: price, dtype: float64

如需和并到原数据中,直接合并即可。

数据加载

文本数据读取

read_csv 可以用来读取文本文件中的数据。文本文件一般以 csv 或 txt 为后缀。

比如,读取 type-.txt 文件中的数据:

data = pd.read_csv('data/type-.txt')
data

读取来的数据为:

	你好-我好-他也好
0	也许-大概-有可能
1	然而-未必-不见得

很显然,这是一个两行一列的数据。但是我们希望它以 - 分隔,且第一行不要是表头,从而形成一个三行三列的数据。我们只需要指定分隔符 sep 为 -,表头 header 为 None 即可:

data = pd.read_csv('data/type-.txt', sep='-', header=None)
data

成功获得了三行三列的数据:

	0	1	2
0	你好	我好	他也好
1	也许	大概	有可能
2	然而	未必	不见得

我们还可以通过 names 参数来指定列索引:

data = pd.read_csv('data/type-.txt', sep='-', header=None, names=['lala', 'haha', 'papa'])
data

生成的列中就都有了索引:

	lala	haha	papa
0	你好	我好	他也好
1	也许	大概	有可能
2	然而	未必	不见得

数据库数据读取

连接数据库获取数据

Pandas 可以直接使用关系型数据库(如:MySQL、Oracle、SQLite,等)的连接导入数据。

例如,导入 SQLite 中的数据:

import sqlite3
# 这里的conn是SQLite的连接,如果用MySQL,将其替换即可
conn = sqlite3.connect('data/weather_2012.sqlite')
sql_df = pd.read_sql('select * from weather_2012', conn)
sql_df

顺利读取到 SQLite 中的数据:

	index	Date/Time	Temp (C)	Dew Point Temp (C)	Rel Hum (%)	Wind Spd (km/h)	Visibility (km)	Stn Press (kPa)	Weather
0	0.0	2012-01-01 00:00:00	-1.8	-3.9	86.0	4.0	8.0	101.24	Fog
1	1.0	2012-01-01 01:00:00	-1.8	-3.7	87.0	4.0	8.0	101.24	Fog
2	2.0	2012-01-01 02:00:00	-1.8	-3.4	89.0	7.0	4.0	101.26	Freezing Drizzle,Fog
...	...	...	...	...	...	...	...	...	...
8783	8783.0	2012-12-31 23:00:00	0.0	-2.1	86.0	30.0	11.3	99.89	Snow
8784	NaN	None	NaN	NaN	NaN	NaN	NaN	NaN	Fog
8785	NaN	None	NaN	NaN	NaN	NaN	NaN	NaN	Fog
8786 rows × 9 columns

类似地,我们也可以使用 pymysql 读取 MySQL 中的数据:

import pymysql
conn = pymysql.connect(host='127.0.0.1', port=3306, user='root', password='123', database='school')
sql_df = pd.read_sql('select * from student', conn)
sql_df

成功读取到数据:

	sid	sname	gender	class_id
0	1	钢蛋	女	1
1	2	铁锤	女	1
2	3	山炮	男	2

将数据存储到数据库

使用 DataFrame 的 to_sql 命令可以将之前用到的存放商品信息的 df 中的数据值写入存储到数据库中:

conn = sqlite3.connect('data/weather_2012.sqlite')
df.to_sql('goods_data', conn)

查看数据库中的数据:

pd.read_sql('select * from goods_data', conn)

发现数据已经成功写入到数据库中:

	index	color	item	price	weight	mean_price	mean_weight	new_price
0	0	red	Apple	4.0	12	3.00	12.000000	7.00
1	1	yellow	Banana	3.0	20	2.75	35.000000	5.75
2	2	yellow	Orange	3.0	50	3.50	35.000000	6.50
3	3	green	Banana	2.5	30	2.75	31.333333	5.25
4	4	green	Orange	4.0	20	3.50	31.333333	7.50
5	5	green	Apple	2.0	44	3.00	31.333333	5.00

透视表

透视表是一种可以对数据动态排布并且分类汇总的表格格式。或许大多数人都在 Excel 使用过数据透视表,也体会到它的强大功能,而在 pandas 中它被称作 pivot_table。

透视表的优点有很多:

  • 灵活性高,可以随意定制你的分析计算要求
  • 脉络清晰易于理解数据
  • 操作性强,报表神器

pivot_table 有四个最重要的参数:index、values、columns、aggfunc,接下来我们逐个介绍一下。

首先读取文件中的数据:

df = pd.read_csv('./data/透视表-篮球赛.csv', encoding='utf8', engine='python')
df

因为文件中有中文,所以需要指定编码。文件路径中出现中文,可能会报错,这时候可以尝试指定 engine 为 python 解决。

读取到的数据为:

	对手	胜负	主客场	命中	投篮数	投篮命中率	3分命中率	篮板	助攻	得分
0	勇士	胜	客	10	23	0.435	0.444	6	11	27
1	国王	胜	客	8	21	0.381	0.286	3	9	27
2	小牛	胜	主	10	19	0.526	0.462	3	7	29
3	灰熊	负	主	8	20	0.400	0.250	5	8	22
4	76人	胜	客	10	20	0.500	0.250	3	13	27
5	黄蜂	胜	客	8	18	0.444	0.400	10	11	27
6	灰熊	负	客	6	19	0.316	0.222	4	8	20
7	76人	负	主	8	21	0.381	0.429	4	7	29
8	尼克斯	胜	客	9	23	0.391	0.353	5	9	31
9	老鹰	胜	客	8	15	0.533	0.545	3	11	29
10	爵士	胜	主	19	25	0.760	0.875	2	13	56
11	骑士	胜	主	8	21	0.381	0.429	11	13	35
12	灰熊	胜	主	11	25	0.440	0.429	4	8	38
13	步行者	胜	客	9	21	0.429	0.250	5	15	26
14	猛龙	负	主	8	25	0.320	0.273	6	11	38
15	太阳	胜	客	12	22	0.545	0.545	2	7	48
16	灰熊	胜	客	9	20	0.450	0.500	5	7	29
17	掘金	胜	主	6	16	0.375	0.143	8	9	21
18	尼克斯	胜	主	12	27	0.444	0.385	2	10	37
19	篮网	胜	主	13	20	0.650	0.615	10	8	37
20	步行者	胜	主	8	22	0.364	0.333	8	10	29
21	湖人	胜	客	13	22	0.591	0.444	4	9	36
22	爵士	胜	客	8	19	0.421	0.333	5	3	29
23	开拓者	胜	客	16	29	0.552	0.571	8	3	48
24	鹈鹕	胜	主	8	16	0.500	0.400	1	17	26

index 参数:分类汇总的分类条件。

每个 pivot_table 必须拥有一个 index。如果想查看哈登对阵每个队伍的得分则需要对每一个队进行分类并计算其各类得分的平均值。

首先,需要拿到哈登对阵同一对手在不同主客场下的数据,分类条件为对手和主客场:

df.pivot_table(index=['对手', '主客场'])

同 groupby 分组类似,除了 index,我们只拿到了数值型的数据:


3分命中率	助攻	命中	得分	投篮命中率	投篮数	篮板
对手	主客场							
76人	主	0.4290	7.0	8.0	29.0	0.381	21.0	4.00.2500	13.0	10.0	27.0	0.500	20.0	3.0
勇士	客	0.4440	11.0	10.0	27.0	0.435	23.0	6.0
国王	客	0.2860	9.0	8.0	27.0	0.381	21.0	3.0
太阳	客	0.5450	7.0	12.0	48.0	0.545	22.0	2.0
小牛	主	0.4620	7.0	10.0	29.0	0.526	19.0	3.0
尼克斯	主	0.3850	10.0	12.0	37.0	0.444	27.0	2.00.3530	9.0	9.0	31.0	0.391	23.0	5.0
开拓者	客	0.5710	3.0	16.0	48.0	0.552	29.0	8.0
掘金	主	0.1430	9.0	6.0	21.0	0.375	16.0	8.0
步行者	主	0.3330	10.0	8.0	29.0	0.364	22.0	8.00.2500	15.0	9.0	26.0	0.429	21.0	5.0
湖人	客	0.4440	9.0	13.0	36.0	0.591	22.0	4.0
灰熊	主	0.3395	8.0	9.5	30.0	0.420	22.5	4.50.3610	7.5	7.5	24.5	0.383	19.5	4.5
爵士	主	0.8750	13.0	19.0	56.0	0.760	25.0	2.00.3330	3.0	8.0	29.0	0.421	19.0	5.0
猛龙	主	0.2730	11.0	8.0	38.0	0.320	25.0	6.0
篮网	主	0.6150	8.0	13.0	37.0	0.650	20.0	10.0
老鹰	客	0.5450	11.0	8.0	29.0	0.533	15.0	3.0
骑士	主	0.4290	13.0	8.0	35.0	0.381	21.0	11.0
鹈鹕	主	0.4000	17.0	8.0	26.0	0.500	16.0	1.0
黄蜂	客	0.4000	11.0	8.0	27.0	0.444	18.0	10.0

values 参数:需要对计算的数据进行筛选。

如果我们只需要哈登在主客场和不同胜负情况下的得分、篮板与助攻三项数据:

df.pivot_table(index=['主客场', '胜负'], values=['得分', '篮板', '助攻'])

我们就得到了简化的数据:

		助攻	得分	篮板
主客场	胜负			
主	胜	10.555556	34.222222	5.4444448.666667	29.666667	5.000000
客	胜	9.000000	32.000000	4.9166678.000000	20.000000	4.000000

Aggfunc 参数:设置我们对数据聚合时进行的函数操作

当我们未设置 aggfunc 时,它默认 aggfunc='mean' 计算均值。也就是说,我们上面的数据其实是平均值。

如果我们想获得 James Harden 在主客场和不同胜负情况下的总得分、总篮板、总助攻时:

df.pivot_table(index=['主客场', '胜负'], values=['得分', '篮板', '助攻'], aggfunc='sum')

我们就得到了总合的数据:

		助攻	得分	篮板
主客场	胜负			
主	胜	95	308	4926	89	15
客	胜	108	384	598	20	4

更高端的写法是,我们可以给每一列指定一个聚合函数:

df.pivot_table(index=['主客场', '胜负'], aggfunc={'得分': 'sum', '篮板': 'mean', '助攻': 'std'})

结果就是:

		助攻	得分	篮板
主客场	胜负			
主	胜	3.205897	308	5.4444442.081666	89	5.000000
客	胜	3.618136	384	4.916667
	负	NaN	20	4.000000

columns:可以设置列层次字段

columns 参数用来对 values 字段进行分类。

通过前面的学习,我们很容易可以获取所有队主客场的总得分:

df.pivot_table(index='主客场', values='得分', aggfunc='sum')

数据也成功拿到了:

	得分
主客场	
主	397404

但是这个数据太笼统,我们希望看到的是每个队主客场的总得分(在总得分的基础上又进行对手的分类),这就可以指定 columns 参数了:

df.pivot_table(index='主客场', values='得分', aggfunc='sum', columns='对手')

我们就得到了每个队伍主客场得分的数据:

对手	76人	勇士	国王	太阳	小牛	尼克斯	开拓者	掘金	步行者	湖人	灰熊	爵士	猛龙	篮网	老鹰	骑士	鹈鹕	黄蜂
主客场																		
主	29.0	NaN	NaN	NaN	29.0	37.0	NaN	21.0	29.0	NaN	60.0	56.0	38.0	37.0	NaN	35.0	26.0	NaN
客	27.0	27.0	27.0	48.0	NaN	31.0	48.0	NaN	26.0	36.0	49.0	29.0	NaN	NaN	29.0	NaN	NaN	27.0

如果不喜欢这里的 NaN, 我们还可以通过指定 fill_value 参数的方式将其替换:

df.pivot_table(index='主客场', values='得分', columns='对手', aggfunc='sum', fill_value=0)

这样得到的数据就没有 NaN 了:

对手	76人	勇士	国王	太阳	小牛	尼克斯	开拓者	掘金	步行者	湖人	灰熊	爵士	猛龙	篮网	老鹰	骑士	鹈鹕	黄蜂
主客场																		
主	29	0	0	0	29	37	0	21	29	0	60	56	38	37	0	35	26	027	27	27	48	0	31	48	0	26	36	49	29	0	0	29	0	0	27

交叉表

交叉表是一种用于计算分组的特殊透视图,用于对数据进行汇总。需要注意的是,crosstab 是 Pandas 的方法,而非 DataFrame 的。

交叉表就是一种特殊的透视表,只不过将聚合函数指定为了 count。交叉表能实现的,透视表都可以实现。

  • pd.crosstab(index, colums)
    • index:分组数据,交叉表的行索引
    • columns:交叉表的列索引

第一件事,当然是构造数据:

df = DataFrame({
    'sex': ['man', 'man', 'women', 'women', 'man', 'women', 'man', 'women', 'women'],
    'age': [15, 23, 25, 17, 35, 57, 24, 31, 22],
    'smoke': [True, False, False, True, True, False, False, True, False],
    'height': [168, 179, 181, 166, 173, 178, 188, 190, 160]
})
df

数据是这样的:

	age	height	sex	smoke
0	15	168	man	True
1	23	179	man	False
2	25	181	women	False
3	17	166	women	True
4	35	173	man	True
5	57	178	women	False
6	24	188	man	False
7	31	190	women	True
8	22	160	women	False

使用交叉表求出各个性别抽烟的人数:

pd.crosstab(df.sex, df.smoke)

得到的结果为:

smoke	False	True
sex		
man	2	2
women	3	2

求出各个年龄段抽烟人情况:

pd.crosstab(df.smoke, df.age)

得到的结果就是:

age	15	17	22	23	24	25	31	35	57
smoke									
False	0	0	1	1	1	1	0	0	1
True	1	1	0	0	0	0	1	1	0