淺談dataframe兩列相乘構造新特征

假如我們要構建新特征b

目的是從a中篩選出數值在4~6之間的數據,如果符合就是True,否則就是False。

那麼代碼如下

import pandas as pd
lists=pd.DataFrame({'a':[1,2,3,4,5,6,7,8,9]})
lists['b']=(lists['a']<6).mul(lists['a']>4)

補充:dataframe求兩列的相乘,再將輸出為新的一列

看代碼吧~

df["new"]=df3["rate"]*df3["duration"]

new為新的一列的列名

rate和duration為需要相乘的列

加,減,乘,除都適用!

補充:DataFrame衍生新特征操作

1.DataFrame中某一列的值衍生為新的特征

#將LBL1特征的值衍生為one-hot形式的新特征
piao=df_train_log.LBL1.value_counts().index
#先構造一個臨時的df
df_tmp=pd.DataFrame({'USRID':df_train_log.drop_duplicates('USRID').USRID.values})
#將所有的新特征列都置為0
for i in piao:
    df_tmp['PIAO_'+i]=0
#進行分組便利,有這個特征就置為1,原數據每個USRID有多條記錄,所以分組統計
group=df_train_log.groupby(['USRID'])
for k in group.groups.keys():
    t = group.get_group(k)
    id=t.USRID.value_counts().index[0]
    tmp_list=t.LBL1.value_counts().index
    for j in tmp_list:
        df_tmp['PIAO_'+j].loc[df_tmp.USRID==id]=1

2.分組統計,選出同一USRID下該變量中出現次數最多的值項

group=df_train_log.groupby(['USRID'])
lt=[]
list_max_lbl1=[]
list_max_lbl2=[]
list_max_lbl3=[]
for k in group.groups.keys():
    t = group.get_group(k)
    #通過value_counts找出出現次數最多的項
    argmx = np.argmax(t['EVT_LBL'].value_counts())
    lbl1_max=np.argmax(t['LBL1'].value_counts())
    lbl2_max=np.argmax(t['LBL2'].value_counts())
    lbl3_max=np.argmax(t['LBL3'].value_counts())
    list_max_lbl1.append(lbl1_max)
    list_max_lbl2.append(lbl2_max)
    list_max_lbl3.append(lbl3_max)
    #隻留下出現次數最多的項
    c = t[t['EVT_LBL']==argmx].drop_duplicates('EVT_LBL')
    #放入list中
    lt.append(c)
#構造一個新的df
df_train_log_new = pd.concat(lt)
#另外又構造瞭三個特征,LBL1-LBL3分別出現次數最多的項
df_train_log_new['LBL1_MAX']=list_max_lbl1
df_train_log_new['LBL2_MAX']=list_max_lbl2
df_train_log_new['LBL3_MAX']=list_max_lbl3

3.衍生出某天是否發生的ont-hot新特征

#創造臨時df,星期三,星期六,星期七,都默認置為0
df_day=pd.DataFrame({'USRID':df_train_log.drop_duplicates('USRID').USRID.values})
df_day['weekday_3']=0
df_day['weekday_6']=0
df_day['weekday_7']=0
#分組統計,有就置為1,沒有置為0
group=df_train_log.groupby(['USRID'])
for k in group.groups.keys():
    t = group.get_group(k)
    id=t.USRID.value_counts().index[0]
    tmp_list=t.occ_dayofweek.value_counts().index
    for j in tmp_list:
        if j==3:
            df_day['weekday_3'].loc[df_tmp.USRID==id]=1
        elif j==6:
            df_day['weekday_6'].loc[df_tmp.USRID==id]=1
        elif j==7:
            df_day['weekday_7'].loc[df_tmp.USRID==id]=1

4.查看用戶一共停留在APP上多少秒,共有幾天看瞭APP

#首先將日期轉化為時間戳,並賦予一個新特征
tmp_list=[]
for i in df_train_log.OCC_TIM:
    d=datetime.datetime.strptime(str(i),"%Y-%m-%d %H:%M:%S")
    evt_time = time.mktime(d.timetuple())
    tmp_list.append(evt_time)
df_train_log['time']=tmp_list
#每下一行減去上一行,得到app停留時間
df_train_log['diff_time']=df_train_log.time-df_train_log.time.shift(1)
#構造一個新的dataFrame,分組得到查看app的天數
df_time=pd.DataFrame({'USRID':df_train_log.drop_duplicates('USRID').USRID.values})
#有幾天查看
df_time['days']=0
group=df_train_log.groupby(['USRID'])
for k in group.groups.keys():
    t = group.get_group(k)
    id=set(t.USRID).pop()
    df_time['days'].loc[df_time.USRID==id]= len(t.occ_day.value_counts().index)
#去掉一些異常時間戳,比如間隔兩天的相減,肯定不合適,na的也去掉瞭
df_train_log=df_train_log[(df_train_log.diff_time>0)&(df_train_log.diff_time<8000)]
#累計停留時間
group_stayTime=df_train_log['diff_time'].groupby(df_train_log['USRID']).sum()
#創造新的df
df_tmp=pd.DataFrame({'USRID':list(group_stayTime.index.values),'stay_time':list(group_stayTime.values)})
#合並成一個新的df
df=pd.merge(df_time,df_tmp,on=['USRID'],how='left')#合並後,缺失的停留時間,置為0df.fillna(0,axis=1,inplace=True)

以上為個人經驗,希望能給大傢一個參考,也希望大傢多多支持WalkonNet。

推薦閱讀: