python爬蟲用request庫處理cookie的實例講解

python爬蟲中使用urli庫可以使用opener”發送多個請求,這些請求是能共享處理cookie的,小編之前也提過python爬蟲中使用request庫會比urllib庫更加⽅便,使用使用requests也能達到共享cookie的目的,即使用request庫get方法和使用requests庫提供的session對象都可以處理。

方法一:使用request庫get方法

resp = requests.get('http://www.baidu.com/') 
print(resp.cookies) 
print(resp.cookies.get_dict())

方法二:使用requests庫提供的 session對象

import requests
url = "http://www.renren.com/PLogin.do" 
data = {"email":"[email protected]",'password':"pythonspider"} 
headers = { 'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 
(KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36" }
#登錄
session = requests.session() session.post(url,data=data,headers=headers)
#訪問
resp = session.get('http://www.renren.com/256450404/profile')
print(resp.text) ```

知識點擴展:

我們知道瞭requests中的session對象能夠在請求之間保持cookie,它極大地方便瞭我們去使用cookie。當我們想設置方法級別中的請求時,可以如下面示例一樣操作。

import requests
s = requests.session()
# 第一步:發送一個請求,用於設置請求中的cookies
cookies = dict(cookies_are='cookie1')
# tips: http://httpbin.org能夠用於測試http請求和響應
r1 = s.get(url='http://httpbin.org/cookies', cookies=cookies)
print(r1.text)
# 第二步:發送一個請求,用於再次設置請求中的cookies
cookies = dict(cookies_are='cookie2')
r2 = s.get(url='http://httpbin.org/cookies', cookies=cookies)
print(r2.text)

運行後

# r1.text
{
 "cookies": {
 "cookies_are": "cookie1"
 }
}
# t2.text
{
 "cookies": {
 "cookies_are": "cookie2"
 }
}

到此這篇關於python爬蟲用request庫處理cookie的實例講解的文章就介紹到這瞭,更多相關python爬蟲如何使用request庫處理cookie內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!

推薦閱讀: