加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 建站 > 正文

11个Python Pandas小技巧让你的工作更高效(附代码实例)

发布时间:2019-04-30 01:42:49 所属栏目:建站 来源:THU数据派
导读:本文为你介绍Pandas隐藏的炫酷小技巧,我相信这些会对你有所帮助。 或许本文中的某些命令你早已知晓,只是没意识到它还有这种打开方式。 Pandas是一个在Python中广泛应用的数据分析包。市面上有很多关于Pandas的经典教程,但本文介绍几个隐藏的炫酷小技巧
副标题[/!--empirenews.page--]

本文为你介绍Pandas隐藏的炫酷小技巧,我相信这些会对你有所帮助。

或许本文中的某些命令你早已知晓,只是没意识到它还有这种打开方式。

11个Python Pandas小技巧让你的工作更高效(附代码实例)

Pandas是一个在Python中广泛应用的数据分析包。市面上有很多关于Pandas的经典教程,但本文介绍几个隐藏的炫酷小技巧,我相信这些会对你有所帮助。

1. read_csv

这是读取数据的入门级命令。当要你所读取的数据量特别大时,试着加上这个参数nrows = 5,就可以在载入全部数据前先读取一小部分数据。如此一来,就可以避免选错分隔符这样的错误啦(数据不一定都是用逗号来分隔)。

(或者在linux系统中,你可以使用‘head’来展示任意文本文件的前五行:head -c 5 data.txt)

接下来,用 df.columns.tolist() 可以提取每一列并转换成list。还可以加上usecols = [‘c1’, ‘c2’, … ]来载入所需要的指定列。另外,如果你知道某些列的类型,你可以加上dtype = {‘c1’: str, ‘c2’: int, …} ,这样会加快载入的速度。加入这些参数的另一大好处是,如果这一列中同时含有字符串和数值类型,而你提前声明把这一列看作是字符串,那么这一列作为主键来融合多个表时,就不会报错了。

2. select_dtypes

如果已经在Python中完成了数据的预处理,这个命令可以帮你节省一定的时间。在读取了表格之后,每一列的默认数据类型将会是bool,int64,float64,object,category,timedelta64,或者datetime64。首先你可以观察一下大致情况,使用:

  1. df.dtypes.value_counts() 

来了解你的dataframe的每项数据类型,然后再使用:

  1. df.select_dtypes(include=['float64', 'int64']) 

获取一个仅由数值类型组成的sub-dataframe。

3. copy

如果你没听说过它的话,我不得强调它的重要性。输入下面的命令:

  1. import pandas as pd 
  2. df1 = pd.DataFrame({ 'a':[0,0,0], 'b': [1,1,1]}) 
  3. df2 = df1 
  4. df2['a'] = df2['a'] + 1 
  5. df1.head() 

你会发现df1已经发生了改变。这是因为df2 = df1并不是生成一个df1的复制品并把它赋值给df2,而是设定一个指向df1的指针。所以只要是针对df2的改变,也会相应地作用在df1上。为了解决这个问题,你既可以这样做:

  1. df2 = df1.copy() 

也可以这样做:

  1. from copy import deepcopy 
  2. df2 = deepcopy(df1) 

4. map

这个炫酷的命令让你的数据转换变得轻松。首先定义一个

dictionary,“key”是转换前的旧值,而“values”是转换后的新值。

  1. level_map = {1: 'high', 2: 'medium', 3: 'low'} 
  2. df['c_level'] = df['c'].map(level_map) 

几个适用情景:把True、False,转换成1、0(为了建模);定义级别;使用字典编码。

5. 用不用apply?

如果我们想在现有几列的基础上生成一个新列,并一同作为输入,那么有时apply函数会相当有帮助。

  1. def rule(x, y): 
  2.  if x == 'high' and y > 10: 
  3.  return 1 
  4.  else: 
  5.  return 0 
  6. df = pd.DataFrame({ 'c1':[ 'high' ,'high', 'low', 'low'], 'c2': [0, 23, 17, 4]}) 
  7. df['new'] = df.apply(lambda x: rule(x['c1'], x['c2']), axis = 1) 
  8. df.head() 

在上面的代码中,我们定义了一个有两个输入变量的函数,并依靠apply函数使其作用到列“c1”和“c2”上。

但是apply函数在有些情况下实在是太慢了。如果你是想计算“c1”和“c2”列的最大值,你当然可以这样去做:

  1. df['maximum'] = df.apply(lambda x: max(x['c1'], x['c2']), axis = 1) 

但你会发现相比于以下命令,apply实在是慢太多了:

  1. df['maximum'] = df[['c1','c2']].max(axis =1) 

结论:如果你可以采用其他内置函数(他们一般速度更快),请不要使用apply。比如说,如果你想把“c”列的值近似取整,那么请用round(df[‘c’], 0)或df['c'],round(0)而不是上文的apply函数。

7. value counts

这个命令用于检查值的分布。你想要检查下“c”列中出现的值以及每个值所出现的频率,可以使用:

  1. df['c'].value_counts( 

下面是一些有用的小技巧/参数:

  • normalize = True:查看每个值出现的频率而不是频次数。
  • dropna = False: 把缺失值也保留在这次统计中。
  • sort = False: 将数据按照值来排序而不是按照出现次数排序。
  • df[‘c].value_counts().reset_index(): 将这个统计表转换成pandas的dataframe并且进行处理。

8. 缺失值的数量

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读