本文是对pandas官方网站上《10 Minutes to pandas》的一个简单的翻译,原文在这里。这篇文章是对pandas的一个简单的介绍,详细的介绍请参考:Cookbook 。习惯上,我们会按下面格式引入所需要的包:
一、 创建对象
可以通过 Data Structure Intro Setion 来查看有关该节内容的详细信息。
1、可以通过传递一个list对象来创建一个Series,pandas会默认创建整型索引:
2、通过传递一个numpy array,时间索引以及列标签来创建一个DataFrame:
3、通过传递一个能够被转换成类似序列结构的字典对象来创建一个DataFrame:
4、查看不同列的数据类型:
5、如果你使用的是IPython,使用Tab自动补全功能会自动识别所有的属性以及自定义的列,下图中是所有能够被自动识别的属性的一个子集:
二、 查看数据
详情请参阅:Basics Section
1、 查看frame中头部和尾部的行:
2、 显示索引、列和底层的numpy数据:
3、 describe()函数对于数据的快速统计汇总:
4、 对数据的转置:
5、 按轴进行排序
6、 按值进行排序
三、 选择
虽然标准的Python/Numpy的选择和设置表达式都能够直接派上用场,但是作为工程使用的代码,我们推荐使用经过优化的pandas数据访问方式: .at, .iat, .loc, .iloc 和 .ix详情请参阅Indexing and Selecing Data 和MultiIndex / Advanced Indexing。
l 获取
1、 选择一个单独的列,这将会返回一个Series,等同于df.A:
2、 通过[]进行选择,这将会对行进行切片
l 通过标签选择
1、 使用标签来获取一个交叉的区域
2、 通过标签来在多个轴上进行选择
3、 标签切片
4、 对于返回的对象进行维度缩减
5、 获取一个标量
6、 快速访问一个标量(与上一个方法等价)
l 通过位置选择
1、 通过传递数值进行位置选择(选择的是行)
2、 通过数值进行切片,与numpy/python中的情况类似
3、 通过指定一个位置的列表,与numpy/python中的情况类似
4、 对行进行切片
5、 对列进行切片
6、 获取特定的值
l 布尔索引
1、 使用一个单独列的值来选择数据:
2、 使用where操作来选择数据:
3、 使用isin()方法来过滤:
l 设置
1、 设置一个新的列:
2、 通过标签设置新的值:
3、 通过位置设置新的值:
4、 通过一个numpy数组设置一组新值:
上述操作结果如下:
5、 通过where操作来设置新的值:(必须数值型,存在字符串列会出错!)
四、 缺失值处理
在pandas中,使用np.nan来代替缺失值,这些值将默认不会包含在计算中,详情请参阅:Missing Data Section。
1、 reindex()方法可以对指定轴上的索引进行改变/增加/删除操作,这将返回原始数据的一个拷贝:、
2、 去掉包含缺失值的行:
3、 对缺失值进行填充:
4、 对数据进行布尔填充:
五、 相关操作
详情请参与 Basic Section On Binary Ops
l 统计(相关操作通常情况下不包括缺失值)
1、 执行描述性统计:
2、 在其他轴上进行相同的操作:
3、 对于拥有不同维度,需要对齐的对象进行操作。Pandas会自动的沿着指定的维度进行广播:
l Apply
1、 对数据应用函数:
l 直方图
具体请参照:Histogramming and Discretization
l 字符串方法
Series对象在其str属性中配备了一组字符串处理方法,可以很容易的应用到数组中的每个元素,如下段代码所示。更多详情请参考:Vectorized String Methods.
六、 合并
Pandas提供了大量的方法能够轻松的对Series,DataFrame和Panel对象进行各种符合各种逻辑关系的合并操作。具体请参阅:Merging section
l Concat
l Join 类似于SQL类型的合并,具体请参阅:Database style joining
l Append 将一行连接到一个DataFrame上,具体请参阅Appending:
七、 分组
对于”group by”操作,我们通常是指以下一个或多个操作步骤:
l (Splitting)按照一些规则将数据分为不同的组;
l (Applying)对于每组数据分别执行一个函数;
l (Combining)将结果组合到一个数据结构中;
详情请参阅:Grouping section
1、 分组并对每个分组执行sum函数:
2、 通过多个列进行分组形成一个层次索引,然后执行函数:
八、 Reshaping
详情请参阅 Hierarchical Indexing 和 Reshaping。
l Stack
l 数据透视表,详情请参阅:Pivot Tables.
可以从这个数据中轻松的生成数据透视表:
九、 时间序列
Pandas在对频率转换进行重新采样时拥有简单、强大且高效的功能(如将按秒采样的数据转换为按5分钟为单位进行采样的数据)。这种操作在金融领域非常常见。具体参考:Time Series section。
1、 时区表示:
2、 时区转换:
3、 时间跨度转换:
4、 时期和时间戳之间的转换使得可以使用一些方便的算术函数。
十、 Categorical
从0.15版本开始,pandas可以在DataFrame中支持Categorical类型的数据,详细 介绍参看:categorical introduction和API documentation。
1、 将原始的grade转换为Categorical数据类型:
2、 将Categorical类型数据重命名为更有意义的名称:
3、 对类别进行重新排序,增加缺失的类别:
4、 排序是按照Categorical的顺序进行的而不是按照字典顺序进行:
5、 对Categorical列进行排序时存在空的类别:
十一、 画图
具体文档参看:Plotting docs
对于DataFrame来说,plot是一种将所有列及其标签进行绘制的简便方法:
十二、 导入和保存数据
l CSV,参考:Writing to a csv file
1、 写入csv文件:
2、 从csv文件中读取:
l HDF5,参考:HDFStores
1、 写入HDF5存储:
2、 从HDF5存储中读取:
l Excel,参考:MS Excel
1、 写入excel文件:
2、 从excel文件中读取:
import pandas as pd;
import numpy as np;
import matplotlib.pyplot as plt;
dates= pd.date_range('20130101',periods=6)
df=pd.DataFrame({'A':1,
'B':pd.Timestamp('20130102'),
'C':pd.Series(1,index=list(range(4)),dtype='float32'),
'D':np.array([3]*4,dtype='int32'),
'E':pd.Categorical(["test","train","test","train"]),
'F':'foo'})
df=pd.DataFrame(np.random.randn(6,4),index=dates,columns=list('ABCD'))#6行4列
""" A B C D
2013-01-01 -1.107551 0.195271 -1.230686 -0.484630
2013-01-02 0.865845 -1.511340 -1.534180 2.054369
2013-01-03 0.904075 -0.336863 -0.718355 0.124269
2013-01-04 0.508006 -0.375838 -1.626099 0.834180
2013-01-05 0.577990 1.005768 -1.883421 -0.460858
2013-01-06 -0.750353 -1.296683 -0.627696 -1.204832
"""
df.head(6);
df.index
df.columns
df.values
df.describe()
df.T
help(pd.DataFrame.sort_index)
df.sort_index(axis=1,ascending=False)#axis=0是按行序号排序,1位按列序号排序
df.sort(columns='B')
df[0:3]#单独按行或者按列,返回数据框,[0:3]是第0行到第2行,不包括第3行!
df.loc[dates[0],:]#多轴选择,按字段名
df.iloc[0,:]#多轴选择,按索引序号
df.at[dates[0],'A']#单独选择一个值,按字段名
df.iat[0,0]#单独选择一个值,按索引序号
df[df.A>0]
df[df>0]
df2=df.copy()#深拷贝
df2['E']=['one','one','two','three','four','three']
df2.loc[dates[0],'E']='124'
df2[df2['E'].isin(['124','three'])]
s1=pd.Series([1,2,3,4,5,6],index=pd.date_range('20130102',periods=6))
df['F']=s1
df.loc[:,'D']=np.array([5]*len(df))
df2=df2.loc[:,['A','B','C','D']]
df2[df2>0]=-df2
df1=df.reindex(index=dates[0:4],columns=list(df.columns)+['E'])
df1.loc[dates[0]:dates[1],'E']=1
df1.dropna(how='any')#去掉包含缺失值的行
df1.fillna(value=5)
pd.isnull(df1)
df.mean(1)#代表按行平均
s=pd.Series([1,3,5,np.nan,6,8],index=dates).shift(2)#向下偏倚2个单位
df.apply(np.cumsum)#列累加
df.apply(lambda x: x.max()-x.min())#列最大最小相减
s=pd.Series(np.random.randint(0,7,size=10))#取值范围[最小值,最大值]的整型个数
s.value_counts()#统计词频,和R中的table一样
s=pd.Series(['A','B','C','Aaba','Baca',np.nan,'caba','dog','cat'])
s.str.lower()#小写输出,原s未变
pieces=[df[:2],df[2:4],df[4:]]
pd.concat(pieces)#连接
left=pd.DataFrame({'key':['foo','foo'],'lval':[1,2]})
right=pd.DataFrame({'key':['foo','foo'],'rval':[4,5]})
pd.merge(left,right,on='key')#全连接
df=pd.DataFrame(np.random.randn(8,4),columns=['A','B','C','D'])
s=df.iloc[3]
df.append(s,ignore_index=True)#尾部添加一行
df.groupby(['D','F']).sum()#SQL里的分组聚合
#R语言的reshape
tuples=list(zip(*[['bar','bar','baz','baz',
'foo','foo','qux','qux'],
['one','two','one','two',
'one','two','one','two']]))#返回一系列元组,每个对应组的第i个
index=pd.MultiIndex.from_tuples(tuples,names=['first','second'])
df2=pd.DataFrame(np.random.randn(8,2),index=index,columns=['A','B'])
stacked=df2.stack()#宽变长
stacked.unstack(0)#长变宽,把第0列变宽
df['A1']=['one','one','one','two','two','two']
df['A2']=['first','first','second','first','third','first']
df['A3']=['hee','hee','sec','sec','sec','hee']
pd.pivot_table(df,values='A',index=['A2','A3'],columns=['A1'])#透视表,
#时间
rng=pd.date_range('1/1/2012',periods=100,freq='S')#精确到秒
ts=pd.Series(np.random.randint(0,500,len(rng)),index=rng)
ts.resample('5Min',how='sum')#重采样
rng=pd.date_range('3/6/2012',periods=5,freq='D')
ts=pd.Series(np.random.randn(len(rng)),rng)
ts_utc=ts.tz_localize('UTC')#时区
ts_utc.tz_convert('US/Eastern')#时区转换
rng=pd.date_range('3/6/2012',periods=5,freq='M')
ts=pd.Series(np.random.randn(len(rng)),rng)
ps=ts.to_period()#?时间跨度转换
ps.to_timestamp()#?全部转换为1号的
prng=pd.period_range('1990Q1','2000Q4',freq='Q-NOV')
ts=pd.Series(np.random.randn(len(prng)),prng)
ts.index=(prng.asfreq('M','e')+1).asfreq('H','s')+9#!!!!
df=pd.DataFrame({"id":[1,2,3,4,5,6],"raw_grade":['a','b','b','a','a','e']})
df["grade"]=df["raw_grade"].astype("category")#类似R里面的factor因子
df.dtypes
df["grade"].cat.categories=["very good","good","very bad"]#因子等级名称换了,cat是Categorical的缩写?或者是返回?
df["grade"]=df["grade"].cat.set_categories(["very bad","bad","medium","good","very good"])
#因子等级排序,pd.Categorical.set_categories
df.groupby("grade").size()
ts=pd.Series(np.random.randn(1000),index=pd.date_range('1/1/2000',periods=1000))
ts=ts.cumsum()
ts.plot(grid=True)#grid添加网格参数
df=pd.DataFrame(np.random.randn(1000,4),index=ts.index,columns=['A','B','C','D'])
df=df.cumsum()
plt.figure();#?啥作用
df.plot();
plt.legend(loc='best')#没图?
df.to_csv('test.csv')#写入df
pd.read_csv('test.csv')#读文件"test.csv"