python pandas模糊匹配 讀取Excel後 獲取指定指標的操作

1.首先讀取Excel文件

數據代表瞭各個城市店鋪的裝修和配置費用,要統計出裝修和配置項的總費用並進行加和計算;

2.pandas實現過程

import pandas as pd
#1.讀取數據
df = pd.read_excel(r'./data/pfee.xlsx')
print(df)

cols = list(df.columns)
print(cols)

#2.獲取含有裝修 和 配置 字段的數據
zx_lists=[]
pz_lists=[]
for name in cols:
 if '裝修' in name:
  zx_lists.append(name)
 elif '配置' in name:
  pz_lists.append(name)
print(zx_lists)
print(pz_lists)

#3.對裝修和配置項費用進行求和計算
df['裝修-求和'] =df[zx_lists].apply(lambda x:x.sum(),axis=1)
df['配置-求和'] = df[pz_lists].apply(lambda x:x.sum(),axis=1)
print(df)

補充:pandas 中dataframe 中的模糊匹配 與pyspark dataframe 中的模糊匹配

1.pandas dataframe

匹配一個很簡單,批量匹配如下

df_obj[df_obj['title'].str.contains(r'.*?n.*')] #使用正則表達式進行模糊匹配,*匹配0或無限次,?匹配0或1次

pyspark dataframe 中模糊匹配有兩種方式

2.spark dataframe api, filter rlike 聯合使用

df1=df.filter("uri rlike 
 'com.tencent.tmgp.sgame|%E8%80%85%E8%8D%A3%E8%80%80_|android.ugc.live|\
 %e7%88f%e8%a7%86%e9%a2%91|%E7%%8F%E8%A7%86%E9%A2%91'").groupBy("uri").\
 count().sort("count", ascending=False)

註意點:

1.rlike 後面進行批量匹配用引號包裹即可

2.rlike 中要匹配特殊字符的話,不需要轉義

3.rlike ‘\\\\bapple\\\\b’ 雖然也可以匹配但是匹配數量不全,具體原因不明,歡迎討論。

In [5]: df.filter("name rlike '%'").show()
+---+------+-----+
|age|height| name|
+---+------+-----+
| 4| 140|A%l%i|
| 6| 180| i%ce|
+---+------+-----+

3.spark sql

spark.sql("select uri from t where uri like '%com.tencent.tmgp.sgame%' or uri like 'douyu'").show(5)

如果要批量匹配的話,就需要在後面繼續添加uri like ‘%blabla%’,就有點繁瑣瞭。

對瞭這裡需要提到原生sql 的批量匹配,regexp 就很方便瞭,跟rlike 有點相似

mysql> select count(*) from url_parse where uri regexp 'android.ugc.live|com.tencent.tmgp.sgame';
+----------+
| count(*) |
+----------+
|  9768 |
+----------+
1 row in set (0.52 sec)

於是這裡就可以將sql中regexp 應用到spark sql 中

In [9]: spark.sql('select * from t where name regexp "%l|t|_"').show()
+---+------+------+
|age|height| name|
+---+------+------+
| 1| 150|Al_ice|
| 4| 140| A%l%i|
+---+------+------+

以上為個人經驗,希望能給大傢一個參考,也希望大傢多多支持WalkonNet。如有錯誤或未考慮完全的地方,望不吝賜教。

推薦閱讀: