python pandas模糊匹配 读取Excel后 获取指定指标的操作
1.首先读取Excel文件
数据代表了各个城市店铺的装修和配置费用,要统计出装修和配置项的总费用并进行加和计算;
2.pandas实现过程
importpandasaspd #1.读取数据 df=pd.read_excel(r'./data/pfee.xlsx') print(df)
cols=list(df.columns) print(cols)
#2.获取含有装修和配置字段的数据 zx_lists=[] pz_lists=[] fornameincols: if'装修'inname: zx_lists.append(name) elif'配置'inname: pz_lists.append(name) print(zx_lists) print(pz_lists)
#3.对装修和配置项费用进行求和计算 df['装修-求和']=df[zx_lists].apply(lambdax:x.sum(),axis=1) df['配置-求和']=df[pz_lists].apply(lambdax:x.sum(),axis=1) print(df)
补充:pandas中dataframe中的模糊匹配与pysparkdataframe中的模糊匹配
1.pandasdataframe
匹配一个很简单,批量匹配如下
df_obj[df_obj['title'].str.contains(r'.*?n.*')]#使用正则表达式进行模糊匹配,*匹配0或无限次,?匹配0或1次
pysparkdataframe中模糊匹配有两种方式
2.sparkdataframeapi,filterrlike联合使用
df1=df.filter("urirlike 'com.tencent.tmgp.sgame|%E8%80%85%E8%8D%A3%E8%80%80_|android.ugc.live|\ %e7%88f%e8%a7%86%e9%a2%91|%E7%%8F%E8%A7%86%E9%A2%91'").groupBy("uri").\ count().sort("count",ascending=False)
注意点:
1.rlike后面进行批量匹配用引号包裹即可
2.rlike中要匹配特殊字符的话,不需要转义
3.rlike'\\\\bapple\\\\b'虽然也可以匹配但是匹配数量不全,具体原因不明,欢迎讨论。
In[5]:df.filter("namerlike'%'").show() +---+------+-----+ |age|height|name| +---+------+-----+ |4|140|A%l%i| |6|180|i%ce| +---+------+-----+
3.sparksql
spark.sql("selecturifromtwhereurilike'%com.tencent.tmgp.sgame%'orurilike'douyu'").show(5)
如果要批量匹配的话,就需要在后面继续添加urilike'%blabla%',就有点繁琐了。
对了这里需要提到原生sql的批量匹配,regexp就很方便了,跟rlike有点相似
mysql>selectcount(*)fromurl_parsewhereuriregexp'android.ugc.live|com.tencent.tmgp.sgame'; +----------+ |count(*)| +----------+ |9768| +----------+ 1rowinset(0.52sec)
于是这里就可以将sql中regexp应用到sparksql中
In[9]:spark.sql('select*fromtwherenameregexp"%l|t|_"').show() +---+------+------+ |age|height|name| +---+------+------+ |1|150|Al_ice| |4|140|A%l%i| +---+------+------+
以上为个人经验,希望能给大家一个参考,也希望大家多多支持毛票票。如有错误或未考虑完全的地方,望不吝赐教。
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。