博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
《利用Python进行数据分析·第2版》第12章 pandas高级应用
阅读量:7067 次
发布时间:2019-06-28

本文共 15381 字,大约阅读时间需要 51 分钟。


第12章 pandas高级应用


前面的章节关注于不同类型的数据规整流程和NumPy、pandas与其它库的特点。随着时间的发展,pandas发展出了更多适合高级用户的功能。本章就要深入学习pandas的高级功能。

12.1 分类数据

这一节介绍的是pandas的分类类型。我会向你展示通过使用它,提高性能和内存的使用率。我还会介绍一些在统计和机器学习中使用分类数据的工具。

背景和目的

表中的一列通常会有重复的包含不同值的小集合的情况。我们已经学过了unique和value_counts,它们可以从数组提取出不同的值,并分别计算频率:

In [10]: import numpy as np; import pandas as pdIn [11]: values = pd.Series(['apple', 'orange', 'apple',   ....:                     'apple'] * 2)In [12]: valuesOut[12]: 0     apple1    orange2     apple3     apple4     apple5    orange6     apple7     appledtype: objectIn [13]: pd.unique(values)Out[13]: array(['apple', 'orange'], dtype=object)In [14]: pd.value_counts(values)Out[14]: apple     6orange    2dtype: int64

许多数据系统(数据仓库、统计计算或其它应用)都发展出了特定的表征重复值的方法,以进行高效的存储和计算。在数据仓库中,最好的方法是使用所谓的包含不同值的维表(Dimension Table),将主要的参数存储为引用维表整数键:

In [15]: values = pd.Series([0, 1, 0, 0] * 2)In [16]: dim = pd.Series(['apple', 'orange'])In [17]: valuesOut[17]: 0    01    12    03    04    05    16    07    0dtype: int64In [18]: dimOut[18]: 0     apple1    orangedtype: object

可以使用take方法存储原始的字符串Series:

In [19]: dim.take(values)Out[19]: 0     apple1    orange0     apple0     apple0     apple1    orange0     apple0     appledtype: object

这种用整数表示的方法称为分类或字典编码表示法。不同值得数组称为分类、字典或数据级。本书中,我们使用分类的说法。表示分类的整数值称为分类编码或简单地称为编码。

分类表示可以在进行分析时大大的提高性能。你也可以在保持编码不变的情况下,对分类进行转换。一些相对简单的转变例子包括:

  • 重命名分类。
  • 加入一个新的分类,不改变已经存在的分类的顺序或位置。

pandas的分类类型

pandas有一个特殊的分类类型,用于保存使用整数分类表示法的数据。看一个之前的Series例子:

In [20]: fruits = ['apple', 'orange', 'apple', 'apple'] * 2In [21]: N = len(fruits)In [22]: df = pd.DataFrame({'fruit': fruits,   ....:                    'basket_id': np.arange(N),   ....:                    'count': np.random.randint(3, 15, size=N),   ....:                    'weight': np.random.uniform(0, 4, size=N)},   ....:                   columns=['basket_id', 'fruit', 'count', 'weight'])In [23]: dfOut[23]:    basket_id   fruit  count    weight0          0   apple      5  3.8580581          1  orange      8  2.6127082          2   apple      4  2.9956273          3   apple      7  2.6142794          4   apple     12  2.9908595          5  orange      8  3.8452276          6   apple      5  0.0335537          7   apple      4  0.425778

这里,df['fruit']是一个Python字符串对象的数组。我们可以通过调用它,将它转变为分类:

In [24]: fruit_cat = df['fruit'].astype('category')In [25]: fruit_catOut[25]: 0     apple1    orange2     apple3     apple4     apple5    orange6     apple7     appleName: fruit, dtype: categoryCategories (2, object): [apple, orange]

fruit_cat的值不是NumPy数组,而是一个pandas.Categorical实例:

In [26]: c = fruit_cat.valuesIn [27]: type(c)Out[27]: pandas.core.categorical.Categorical

分类对象有categories和codes属性:

In [28]: c.categoriesOut[28]: Index(['apple', 'orange'], dtype='object')In [29]: c.codesOut[29]: array([0, 1, 0, 0, 0, 1, 0, 0], dtype=int8)

你可将DataFrame的列通过分配转换结果,转换为分类:

In [30]: df['fruit'] = df['fruit'].astype('category')In [31]: df.fruitOut[31]:0     apple1    orange2     apple3     apple4     apple5    orange6     apple7     appleName: fruit, dtype: categoryCategories (2, object): [apple, orange]

你还可以从其它Python序列直接创建pandas.Categorical:

In [32]: my_categories = pd.Categorical(['foo', 'bar', 'baz', 'foo', 'bar'])In [33]: my_categoriesOut[33]: [foo, bar, baz, foo, bar]Categories (3, object): [bar, baz, foo]

如果你已经从其它源获得了分类编码,你还可以使用from_codes构造器:

In [34]: categories = ['foo', 'bar', 'baz']In [35]: codes = [0, 1, 2, 0, 0, 1]In [36]: my_cats_2 = pd.Categorical.from_codes(codes, categories)In [37]: my_cats_2Out[37]: [foo, bar, baz, foo, foo, bar]Categories (3, object): [foo, bar, baz]

与显示指定不同,分类变换不认定指定的分类顺序。因此取决于输入数据的顺序,categories数组的顺序会不同。当使用from_codes或其它的构造器时,你可以指定分类一个有意义的顺序:

In [38]: ordered_cat = pd.Categorical.from_codes(codes, categories,   ....:                                         ordered=True)In [39]: ordered_catOut[39]: [foo, bar, baz, foo, foo, bar]Categories (3, object): [foo < bar < baz]

输出[foo < bar < baz]指明‘foo’位于‘bar’的前面,以此类推。无序的分类实例可以通过as_ordered排序:

In [40]: my_cats_2.as_ordered()Out[40]: [foo, bar, baz, foo, foo, bar]Categories (3, object): [foo < bar < baz]

最后要注意,分类数据不需要字符串,尽管我仅仅展示了字符串的例子。分类数组可以包括任意不可变类型。

用分类进行计算

与非编码版本(比如字符串数组)相比,使用pandas的Categorical有些类似。某些pandas组件,比如groupby函数,更适合进行分类。还有一些函数可以使用有序标志位。

来看一些随机的数值数据,使用pandas.qcut面元函数。它会返回pandas.Categorical,我们之前使用过pandas.cut,但没解释分类是如何工作的:

In [41]: np.random.seed(12345)In [42]: draws = np.random.randn(1000)In [43]: draws[:5]Out[43]: array([-0.2047,  0.4789, -0.5194, -0.5557,  1.9658])

计算这个数据的分位面元,提取一些统计信息:

In [44]: bins = pd.qcut(draws, 4)In [45]: binsOut[45]: [(-0.684, -0.0101], (-0.0101, 0.63], (-0.684, -0.0101], (-0.684, -0.0101], (0.63, 3.928], ..., (-0.0101, 0.63], (-0.684, -0.0101], (-2.95, -0.684], (-0.0101, 0.63], (0.63, 3.928]]Length: 1000Categories (4, interval[float64]): [(-2.95, -0.684] < (-0.684, -0.0101] < (-0.0101, 0.63] <                                    (0.63, 3.928]]

虽然有用,确切的样本分位数与分位的名称相比,不利于生成汇总。我们可以使用labels参数qcut,实现目的:

In [46]: bins = pd.qcut(draws, 4, labels=['Q1', 'Q2', 'Q3', 'Q4'])In [47]: binsOut[47]: [Q2, Q3, Q2, Q2, Q4, ..., Q3, Q2, Q1, Q3, Q4]Length: 1000Categories (4, object): [Q1 < Q2 < Q3 < Q4]In [48]: bins.codes[:10]Out[48]: array([1, 2, 1, 1, 3, 3, 2, 2, 3, 3], dtype=int8)

加上标签的面元分类不包含数据面元边界的信息,因此可以使用groupby提取一些汇总信息:

In [49]: bins = pd.Series(bins, name='quartile')In [50]: results = (pd.Series(draws)   ....:            .groupby(bins)   ....:            .agg(['count', 'min', 'max'])   ....:            .reset_index())In [51]: resultsOut[51]:   quartile  count       min       max0       Q1    250 -2.949343 -0.6854841       Q2    250 -0.683066 -0.0101152       Q3    250 -0.010032  0.6288943       Q4    250  0.634238  3.927528

分位数列保存了原始的面元分类信息,包括排序:

In [52]: results['quartile']Out[52]:0    Q11    Q22    Q33    Q4Name: quartile, dtype: categoryCategories (4, object): [Q1 < Q2 < Q3 < Q4]

用分类提高性能

如果你是在一个特定数据集上做大量分析,将其转换为分类可以极大地提高效率。DataFrame列的分类使用的内存通常少的多。来看一些包含一千万元素的Series,和一些不同的分类:

In [53]: N = 10000000In [54]: draws = pd.Series(np.random.randn(N))In [55]: labels = pd.Series(['foo', 'bar', 'baz', 'qux'] * (N // 4))

现在,将标签转换为分类:

In [56]: categories = labels.astype('category')

这时,可以看到标签使用的内存远比分类多:

In [57]: labels.memory_usage()Out[57]: 80000080In [58]: categories.memory_usage()Out[58]: 10000272

转换为分类不是没有代价的,但这是一次性的代价:

In [59]: %time _ = labels.astype('category')CPU times: user 490 ms, sys: 240 ms, total: 730 msWall time: 726 ms

GroupBy使用分类操作明显更快,是因为底层的算法使用整数编码数组,而不是字符串数组。

分类方法

包含分类数据的Series有一些特殊的方法,类似于Series.str字符串方法。它还提供了方便的分类和编码的使用方法。看下面的Series:

In [60]: s = pd.Series(['a', 'b', 'c', 'd'] * 2)In [61]: cat_s = s.astype('category')In [62]: cat_sOut[62]: 0    a1    b2    c3    d4    a5    b6    c7    ddtype: categoryCategories (4, object): [a, b, c, d]

特别的cat属性提供了分类方法的入口:

In [63]: cat_s.cat.codesOut[63]: 0    01    12    23    34    05    16    27    3dtype: int8In [64]: cat_s.cat.categoriesOut[64]: Index(['a', 'b', 'c', 'd'], dtype='object')

假设我们知道这个数据的实际分类集,超出了数据中的四个值。我们可以使用set_categories方法改变它们:

In [65]: actual_categories = ['a', 'b', 'c', 'd', 'e']In [66]: cat_s2 = cat_s.cat.set_categories(actual_categories)In [67]: cat_s2Out[67]: 0    a1    b2    c3    d4    a5    b6    c7    ddtype: categoryCategories (5, object): [a, b, c, d, e]

虽然数据看起来没变,新的分类将反映在它们的操作中。例如,如果有的话,value_counts表示分类:

In [68]: cat_s.value_counts()Out[68]: d    2c    2b    2a    2dtype: int64In [69]: cat_s2.value_counts()Out[69]: d    2c    2b    2a    2e    0dtype: int64

在大数据集中,分类经常作为节省内存和高性能的便捷工具。过滤完大DataFrame或Series之后,许多分类可能不会出现在数据中。我们可以使用remove_unused_categories方法删除没看到的分类:

In [70]: cat_s3 = cat_s[cat_s.isin(['a', 'b'])]In [71]: cat_s3Out[71]: 0    a1    b4    a5    bdtype: categoryCategories (4, object): [a, b, c, d]In [72]: cat_s3.cat.remove_unused_categories()Out[72]: 0    a1    b4    a5    bdtype: categoryCategories (2, object): [a, b]

表12-1列出了可用的分类方法。

img_16512ff7e70647a22bddaed7f2cc801f.png
表12-1 pandas的Series的分类方法

为建模创建虚拟变量

当你使用统计或机器学习工具时,通常会将分类数据转换为虚拟变量,也称为one-hot编码。这包括创建一个不同类别的列的DataFrame;这些列包含给定分类的1s,其它为0。

看前面的例子:

In [73]: cat_s = pd.Series(['a', 'b', 'c', 'd'] * 2, dtype='category')

前面的第7章提到过,pandas.get_dummies函数可以转换这个分类数据为包含虚拟变量的DataFrame:

In [74]: pd.get_dummies(cat_s)Out[74]:    a  b  c  d0  1  0  0  01  0  1  0  02  0  0  1  03  0  0  0  14  1  0  0  05  0  1  0  06  0  0  1  07  0  0  0  1

12.2 GroupBy高级应用

尽管我们在第10章已经深度学习了Series和DataFrame的Groupby方法,还有一些方法也是很有用的。

分组转换和“解封”GroupBy

在第10章,我们在分组操作中学习了apply方法,进行转换。还有另一个transform方法,它与apply很像,但是对使用的函数有一定限制:

  • 它可以产生向分组形状广播标量值
  • 它可以产生一个和输入组形状相同的对象
  • 它不能修改输入

来看一个简单的例子:

In [75]: df = pd.DataFrame({'key': ['a', 'b', 'c'] * 4,   ....:                    'value': np.arange(12.)})In [76]: dfOut[76]:    key  value0    a    0.01    b    1.02    c    2.03    a    3.04    b    4.05    c    5.06    a    6.07    b    7.08    c    8.09    a    9.010   b   10.011   c   11.0

按键进行分组:

In [77]: g = df.groupby('key').valueIn [78]: g.mean()Out[78]: keya    4.5b    5.5c    6.5Name: value, dtype: float64

假设我们想产生一个和df['value']形状相同的Series,但值替换为按键分组的平均值。我们可以传递函数lambda x: x.mean()进行转换:

In [79]: g.transform(lambda x: x.mean())Out[79]: 0     4.51     5.52     6.53     4.54     5.55     6.56     4.57     5.58     6.59     4.510    5.511    6.5Name: value, dtype: float64

对于内置的聚合函数,我们可以传递一个字符串假名作为GroupBy的agg方法:

In [80]: g.transform('mean')Out[80]: 0     4.51     5.52     6.53     4.54     5.55     6.56     4.57     5.58     6.59     4.510    5.511    6.5Name: value, dtype: float64

与apply类似,transform的函数会返回Series,但是结果必须与输入大小相同。举个例子,我们可以用lambda函数将每个分组乘以2:

In [81]: g.transform(lambda x: x * 2)Out[81]: 0      0.01      2.02      4.03      6.04      8.05     10.06     12.07     14.08     16.09     18.010    20.011    22.0Name: value, dtype: float64

再举一个复杂的例子,我们可以计算每个分组的降序排名:

In [82]: g.transform(lambda x: x.rank(ascending=False))Out[82]: 0     4.01     4.02     4.03     3.04     3.05     3.06     2.07     2.08     2.09     1.010    1.011    1.0Name: value, dtype: float64

看一个由简单聚合构造的的分组转换函数:

def normalize(x):    return (x - x.mean()) / x.std()

我们用transform或apply可以获得等价的结果:

In [84]: g.transform(normalize)Out[84]: 0    -1.1618951    -1.1618952    -1.1618953    -0.3872984    -0.3872985    -0.3872986     0.3872987     0.3872988     0.3872989     1.16189510    1.16189511    1.161895Name: value, dtype: float64In [85]: g.apply(normalize)Out[85]: 0    -1.1618951    -1.1618952    -1.1618953    -0.3872984    -0.3872985    -0.3872986     0.3872987     0.3872988     0.3872989     1.16189510    1.16189511    1.161895Name: value, dtype: float64

内置的聚合函数,比如mean或sum,通常比apply函数快,也比transform快。这允许我们进行一个所谓的解封(unwrapped)分组操作:

In [86]: g.transform('mean')Out[86]: 0     4.51     5.52     6.53     4.54     5.55     6.56     4.57     5.58     6.59     4.510    5.511    6.5Name: value, dtype: float64In [87]: normalized = (df['value'] - g.transform('mean')) / g.transform('std')In [88]: normalizedOut[88]: 0    -1.1618951    -1.1618952    -1.1618953    -0.3872984    -0.3872985    -0.3872986     0.3872987     0.3872988     0.3872989     1.16189510    1.16189511    1.161895Name: value, dtype: float64

解封分组操作可能包括多个分组聚合,但是矢量化操作还是会带来收益。

分组的时间重采样

对于时间序列数据,resample方法从语义上是一个基于内在时间的分组操作。下面是一个示例表:

In [89]: N = 15In [90]: times = pd.date_range('2017-05-20 00:00', freq='1min', periods=N)In [91]: df = pd.DataFrame({'time': times,   ....:                    'value': np.arange(N)})In [92]: dfOut[92]:                   time  value0  2017-05-20 00:00:00      01  2017-05-20 00:01:00      12  2017-05-20 00:02:00      23  2017-05-20 00:03:00      34  2017-05-20 00:04:00      45  2017-05-20 00:05:00      56  2017-05-20 00:06:00      67  2017-05-20 00:07:00      78  2017-05-20 00:08:00      89  2017-05-20 00:09:00      910 2017-05-20 00:10:00     1011 2017-05-20 00:11:00     1112 2017-05-20 00:12:00     1213 2017-05-20 00:13:00     1314 2017-05-20 00:14:00     14

这里,我们可以用time作为索引,然后重采样:

In [93]: df.set_index('time').resample('5min').count()Out[93]:                      valuetime                      2017-05-20 00:00:00      52017-05-20 00:05:00      52017-05-20 00:10:00      5

假设DataFrame包含多个时间序列,用一个额外的分组键的列进行标记:

In [94]: df2 = pd.DataFrame({'time': times.repeat(3),   ....:                     'key': np.tile(['a', 'b', 'c'], N),   ....:                     'value': np.arange(N * 3.)})In [95]: df2[:7]Out[95]:   key                time  value0   a 2017-05-20 00:00:00    0.01   b 2017-05-20 00:00:00    1.02   c 2017-05-20 00:00:00    2.03   a 2017-05-20 00:01:00    3.04   b 2017-05-20 00:01:00    4.05   c 2017-05-20 00:01:00    5.06   a 2017-05-20 00:02:00    6.0

要对每个key值进行相同的重采样,我们引入pandas.TimeGrouper对象:

In [96]: time_key = pd.TimeGrouper('5min')

我们然后设定时间索引,用key和time_key分组,然后聚合:

In [97]: resampled = (df2.set_index('time')   ....:              .groupby(['key', time_key])   ....:              .sum())In [98]: resampledOut[98]:                          valuekey time                      a   2017-05-20 00:00:00   30.0    2017-05-20 00:05:00  105.0    2017-05-20 00:10:00  180.0b   2017-05-20 00:00:00   35.0    2017-05-20 00:05:00  110.0    2017-05-20 00:10:00  185.0c   2017-05-20 00:00:00   40.0    2017-05-20 00:05:00  115.0    2017-05-20 00:10:00  190.0In [99]: resampled.reset_index()Out[99]:key                time  value0   a 2017-05-20 00:00:00   30.01   a 2017-05-20 00:05:00  105.02   a 2017-05-20 00:10:00  180.03   b 2017-05-20 00:00:00   35.04   b 2017-05-20 00:05:00  110.05   b 2017-05-20 00:10:00  185.06   c 2017-05-20 00:00:00   40.07   c 2017-05-20 00:05:00  115.08   c 2017-05-20 00:10:00  190.0

使用TimeGrouper的限制是时间必须是Series或DataFrame的索引。

12.3 链式编程技术

当对数据集进行一系列变换时,你可能发现创建的多个临时变量其实并没有在分析中用到。看下面的例子:

df = load_data()df2 = df[df['col2'] < 0]df2['col1_demeaned'] = df2['col1'] - df2['col1'].mean()result = df2.groupby('key').col1_demeaned.std()

虽然这里没有使用真实的数据,这个例子却指出了一些新方法。首先,DataFrame.assign方法是一个df[k] = v形式的函数式的列分配方法。它不是就地修改对象,而是返回新的修改过的DataFrame。因此,下面的语句是等价的:

# Usual non-functional waydf2 = df.copy()df2['k'] = v# Functional assign waydf2 = df.assign(k=v)

就地分配可能会比assign快,但是assign可以方便地进行链式编程:

result = (df2.assign(col1_demeaned=df2.col1 - df2.col2.mean())          .groupby('key')          .col1_demeaned.std())

我使用外括号,这样便于添加换行符。

使用链式编程时要注意,你可能会需要涉及临时对象。在前面的例子中,我们不能使用load_data的结果,直到它被赋值给临时变量df。为了这么做,assign和许多其它pandas函数可以接收类似函数的参数,即可调用对象(callable)。为了展示可调用对象,看一个前面例子的片段:

df = load_data()df2 = df[df['col2'] < 0]

它可以重写为:

df = (load_data()      [lambda x: x['col2'] < 0])

这里,load_data的结果没有赋值给某个变量,因此传递到[ ]的函数在这一步被绑定到了对象。

我们可以把整个过程写为一个单链表达式:

result = (load_data()          [lambda x: x.col2 < 0]          .assign(col1_demeaned=lambda x: x.col1 - x.col1.mean())          .groupby('key')          .col1_demeaned.std())

是否将代码写成这种形式只是习惯而已,将它分开成若干步可以提高可读性。

管道方法

你可以用Python内置的pandas函数和方法,用带有可调用对象的链式编程做许多工作。但是,有时你需要使用自己的函数,或是第三方库的函数。这时就要用到管道方法。

看下面的函数调用:

a = f(df, arg1=v1)b = g(a, v2, arg3=v3)c = h(b, arg4=v4)

当使用接收、返回Series或DataFrame对象的函数式,你可以调用pipe将其重写:

result = (df.pipe(f, arg1=v1)          .pipe(g, v2, arg3=v3)          .pipe(h, arg4=v4))

f(df)和df.pipe(f)是等价的,但是pipe使得链式声明更容易。

pipe的另一个有用的地方是提炼操作为可复用的函数。看一个从列减去分组方法的例子:

g = df.groupby(['key1', 'key2'])df['col1'] = df['col1'] - g.transform('mean')

假设你想转换多列,并修改分组的键。另外,你想用链式编程做这个转换。下面就是一个方法:

def group_demean(df, by, cols):    result = df.copy()    g = df.groupby(by)    for c in cols:        result[c] = df[c] - g[c].transform('mean')    return result

然后可以写为:

result = (df[df.col1 < 0]          .pipe(group_demean, ['key1', 'key2'], ['col1']))

12.4 总结

和其它许多开源项目一样,pandas仍然在不断的变化和进步中。和本书中其它地方一样,这里的重点是放在接下来几年不会发生什么改变且稳定的功能。

为了深入学习pandas的知识,我建议你学习官方文档,并阅读开发团队发布的文档更新。我们还邀请你加入pandas的开发工作:修改bug、创建新功能、完善文档。


第12章 pandas高级应用


转载地址:http://rfall.baihongyu.com/

你可能感兴趣的文章
python https实现方法
查看>>
linux下php扩展(php ext)开发记录
查看>>
易连云打印机PHP接口
查看>>
juniper SRX650 设置IDP记录日志到文件设置match时的问题.md
查看>>
SQL批量删除与批量插入
查看>>
linux中cp强制覆盖拷贝
查看>>
windows server 2008 jstack -存储空间不足,无法处理此命令
查看>>
个人LINUX学习笔记(二)
查看>>
wget
查看>>
计算机操作系统启动和Linux boot
查看>>
读书笔记14:适配器模式
查看>>
Oracle实用-01:绑定变量
查看>>
我的友情链接
查看>>
扫描端口占用情况的python脚本
查看>>
用正则表达式求<img src=...>图片字符串
查看>>
原来zabbix监控进程与端口是如此的简单!
查看>>
thinkphp3.2中的RBAC
查看>>
MCT Azure 培训上课笔记
查看>>
java wordpress密码加密
查看>>
php5到php7的修改
查看>>