Python爬蟲實戰之爬取京東商品數據並實實現數據可視化

一、開發工具

Python版本:3.6.4

相關模塊:

DecryptLogin模塊;

argparse模塊;

以及一些python自帶的模塊。

二、環境搭建

安裝Python並添加到環境變量,pip安裝需要的相關模塊即可。

三、原理簡介

原理其實挺簡單的,首先,我們利用之前開源的DecryptLogin庫來實現一下微博的模擬登錄操作:

'''模擬登錄京東'''
@staticmethod
def login():
    lg = login.Login()
    infos_return, session = lg.jingdong()
    return session

然後寫幾行簡單的代碼來保存一下登錄後的會話,省得每次運行程序都要先模擬登錄京東:

if os.path.isfile('session.pkl'):
    print('[INFO]: 檢測到已有會話文件session.pkl, 將直接導入該文件...')
    self.session = pickle.load(open('session.pkl', 'rb'))
    self.session.headers.update({'Referer': ''})
else:
    self.session = JDGoodsCrawler.login()
    f = open('session.pkl', 'wb')
    pickle.dump(self.session, f)
    f.close()

接著去京東抓一波包,一樣的套路,有種屢試不爽的感覺:

圖片

看看請求這個接口需要提交的參數:

圖片

我們可以簡單分析一下每個參數的含義:

area: 不用管,可以看作一個固定值
enc: 指定編碼, 可以看作固定值"utf-8"
keyword: 搜索的關鍵詞
adType: 不用管,可以看作一個固定值
page: 當前的頁碼
ad_ids: 不用管,可以看作一個固定值
xtest: 不用管,可以看作一個固定值
_: 時間戳

也就是說我們需要提交的params的內容大概是這樣子的:

params = {
            'area': '15',
            'enc': 'utf-8',
            'keyword': goods_name,
            'adType': '7',
            'page': str(page_count),
            'ad_ids': '291:19',
            'xtest': 'new_search',
            '_': str(int(time.time()*1000))
        }

構造好需要提交的params之後,隻需要利用登錄後的session去請求我們抓包得到的接口:

response = self.session.get(search_url, params=params)

然後從返回的數據裡解析並提取我們需要的數據就可以啦:

response_json = response.json()
all_items = response_json.get('291', [])
for item in all_items:
    goods_infos_dict.update({len(goods_infos_dict)+1: 
                                {
                                    'image_url': item.get('image_url', ''),
                                    'price': item.get('pc_price', ''),
                                    'shop_name': item.get('shop_link', {}).get('shop_name', ''),
                                    'num_comments': item.get('comment_num', ''),
                                    'link_url': item.get('link_url', ''),
                                    'color': item.get('color', ''),
                                    'title': item.get('ad_title', ''),
                                    'self_run': item.get('self_run', ''),
                                    'good_rate': item.get('good_rate', '')
                                }
                            })

四、數據可視化

老規矩,可視化一波我們爬取到的數據唄。以我們爬取到的無人機商品數據為例。首先,我們來看看京東裡賣無人機的自營店和非自營店比例吧:

圖片

咦,竟然是非自營店占多。我一直以為京東基本都是自營店,雖然我基本不用京東。真是個天大的誤解T_T。

接著,我們再來看看京東自己給的商品排名前10的那幾傢店的商品評論數量唄:

圖片

對比一下評論最多的店鋪:

圖片

看來評論數量和京東給的商品排名並沒有直接聯系T_T,竟然沒有一傢店是重復的。

再來看看無人機相關商品的價格分佈唄:

圖片

到此這篇關於Python爬蟲實戰之爬取京東商品數據並實實現數據可視化的文章就介紹到這瞭,更多相關Python可視化京東商品數據 內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!