使用pandas生成/讀取csv文件的方法實例
前言
csv是我接觸的比較早的一種文件,比較好的是這種文件既能夠以電子表格的形式查看又能夠以文本的形式查看。
先引入pandas庫
import pandas as pd
方法一:
1、我構造瞭一個cont_list,結構為列表嵌套字典,字典是每一個樣本,類似於我們爬蟲爬下來的數據的結構
2、利用pd.DataFrame方法先將數據轉換成一個二維結構數據,如下方打印的內容所示,cloumns指定列表,列表必須是列表
3、to_csv方法可以直接保存csv文件,index=False表示csv文件不加行序號
保存csv結果
應用到我們的爬蟲代碼,傳入的con_list就是[{},{},{}****]這樣的額數據結構,encoding=”utf_8_sig”,encoding=”gb18030”,我這邊解決中文編碼問題
是不是很方便就,2行代碼即可搞定保存,是不是比上次講的方法簡單好多,其實很多方法,還有python的優秀庫,都使python這門語言在數據分析領域有極大的優勢
方法二:
流程:模擬登錄→獲取Html頁面→正則解析所有符合條件的行→逐一將符合條件的行的所有列存入到CSVData[]臨時變量中→寫入到CSV文件中
核心代碼:
####寫入csv文件中 with open(self.CsvFileName, 'wb') as csvfile: spamwriter = csv.writer(csvfile, dialect='excel') #設置標題 spamwriter.writerow(["遊戲賬號","用戶類型","遊戲名稱","渠道","充值類型","充值金額","返利金額","單號","日期"]) #將CsvData中的數據循環寫入到CsvFileName文件中 for item in self.CsvData: spamwriter.writerow(item)
完整代碼:
# coding=utf-8 import urllib import urllib2 import cookielib import re import csv import sys class Pyw(): #初始化數據 def __init__(self): #登錄的Url地址 self.LoginUrl="http://v.pyw.cn/login/check" #所要獲取的Url地址 self.PageUrl="http://v.pyw.cn/Data/accountdetail/%s" # 傳輸的數據:用戶名、密碼、是否記住用戶名 self.PostData = urllib.urlencode({ "username": "15880xxxxxx", "password": "a123456", "remember": "1" }) #第幾筆記錄 self.PageIndex=0; #循環獲取共4頁內容 self.PageTotal=1 #正則解析出tr self.TrExp=re.compile("(?isu)<tr[^>]*>(.*?)</tr>") #正則解析出td self.TdExp = re.compile("(?isu)<td[^>]*>(.*?)</td>") #創建cookie self.cookie = cookielib.CookieJar() #構建opener self.opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(self.cookie)) #解析頁面總頁數 self.Total=4 #####設置csv文件 self.CsvFileName="Pyw.csv" #####存儲Csv數據 self.CsvData=[] #解析網頁中的內容 def GetPageItem(self,PageHtml): #循環取出Table中的所有行 for row in self.TrExp.findall(PageHtml): #取出當前行的所有列 coloumn=self.TdExp.findall(row) #判斷符合的記錄 if len(coloumn) == 9: # print "遊戲賬號:%s" % coloumn[0].strip() # print "用戶類型:%s" % coloumn[1].strip() # print "遊戲名稱:%s" % coloumn[2].strip() # print "渠道:%s" % coloumn[3].strip() # print "充值類型:%s" % coloumn[4].strip() # print "充值金額:%s" % coloumn[5].strip().replace("¥", "") # print "返利金額:%s" % coloumn[6].strip().replace("¥", "") # print "單號:%s" % coloumn[7].strip() # print "日期:%s" % coloumn[8].strip() #拼湊行數據 d=[coloumn[0].strip(), coloumn[1].strip(), coloumn[2].strip(), coloumn[3].strip(), coloumn[4].strip(), coloumn[5].strip().replace("¥", ""), coloumn[6].strip().replace("¥", ""), coloumn[7].strip(), coloumn[8].strip()] self.CsvData.append(d) #模擬登錄並獲取頁面數據 def GetPageHtml(self): try: #模擬登錄 request=urllib2.Request(url=self.LoginUrl,data=self.PostData) ResultHtml=self.opener.open(request) #開始執行獲取頁面數據 while self.PageTotal<=self.Total: #動態拼湊所要解析的Url m_PageUrl = self.PageUrl % self.PageTotal #計算當期第幾頁 self.PageTotal = self.PageTotal + 1 #獲取當前解析頁面的所有內容 ResultHtml=self.opener.open(m_PageUrl) #解析網頁中的內容 self.GetPageItem(ResultHtml.read()) ####寫入Csv文件中 with open(self.CsvFileName, 'wb') as csvfile: spamwriter = csv.writer(csvfile, dialect='excel') #設置標題 spamwriter.writerow(["遊戲賬號","用戶類型","遊戲名稱","渠道","充值類型","充值金額","返利金額","單號","日期"]) #將CsvData中的數據循環寫入到CsvFileName文件中 for item in self.CsvData: spamwriter.writerow(item) print "成功導出CSV文件!" except Exception,e: print "404 error!%s" % e #實例化類 p=Pyw() #執行方法 p.GetPageHtml()
導出結果
讀取CSV
import pandas as pd data = pd.read_table('地址', sep=",")['網址'].values print(data[1])
總結
到此這篇關於使用pandas生成/讀取csv文件的文章就介紹到這瞭,更多相關pandas生成讀取csv文件內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!
推薦閱讀:
- 使用Python讀寫csv文件
- python csv實時一條一條插入且表頭不重復問題
- 零基礎也能看懂的python內置csv模塊教程
- Python用requests模塊實現動態網頁爬蟲
- python爬蟲基礎之urllib的使用