Jmeter並發執行Python 腳本的完整流程
本篇文章以文件上傳為例,聊聊 Jmeter 並發執行 Python 腳本的完整流程
1. 前言
大傢好,我是安果!
最近有小夥伴後臺給我留言,說自己用 Django 寫瞭一個大文件上傳的 Api 接口,現在想本地檢驗一下接口並發的穩定性,問我有沒有好的方案
本篇文章以文件上傳為例,聊聊Jmeter 並發執行 Python 腳本的完整流程
2. Python 實現文件上傳
大文件上傳包含 3 個步驟,分別是:
- 獲取文件信息及切片數目
- 分段切片,並上傳- API
- 文件合並- API
- 文件路徑參數化
2-1獲取文件信息及切片數目
首先,獲取文件的大小
然後,利用預設的切片大小獲取分段總數
最後,獲取文件名及 md5 值
import os import math import hashlib def get_file_md5(self, file_path): """獲取文件的md5值""" with open(file_path, 'rb') as f: data = f.read() return hashlib.md5(data).hexdigest() def get_filename(self, filepath): """獲取文件原始名稱""" # 文件名帶後綴 filename_with_suffix = os.path.basename(filepath) # 文件名 filename = filename_with_suffix.split('.')[0] # 後綴名 suffix = filename_with_suffix.split('.')[-1] return filename_with_suffix, filename, suffix def get_chunk_info(self, file_path): """獲取分段信息""" # 獲取文件總大小(字節) file_total_size = os.path.getsize(file_path) print(file_total_size) # 分段總數 total_chunks_num = math.ceil(file_total_size / self.chunk_size) # 文件名(帶後綴) filename = self.get_filename(file_path)[0] # 文件的md5值 file_md5 = self.get_file_md5(file_path) return file_total_size, total_chunks_num, filename, file_md5
2-2切片及分段上傳
利用分段總數和分段大小,對文件進行切片,調用分段文件上傳接口
import requests def do_chunk_and_upload(self, file_path): """將文件分段處理,並上傳""" file_total_size, total_chunks_num, filename, file_md5 = self.get_chunk_info(file_path) # 遍歷 for index in range(total_chunks_num): print('第{}次文件上傳'.format(index + 1)) if index + 1 == total_chunks_num: partSize = file_total_size % chunk_size else: partSize = chunk_size # 文件偏移量 offset = index * chunk_size # 生成分片id,從1開始 chunk_id = index + 1 print('開始準備上傳文件') print("分片id:", chunk_id, "文件偏移量:", offset, ",當前分片大小:", partSize, ) # 分段上傳文件 self.__upload(offset, chunk_id, file_path, file_md5, filename, partSize, total_chunks_num) def __upload(self, offset, chunk_id, file_path, file_md5, filename, partSize, total): """分次上傳文件""" url = 'http://**/file/brust/upload' params = {'chunk': chunk_id, 'fileMD5': file_md5, 'fileName': filename, 'partSize': partSize, 'total': total } # 根據文件路徑及偏移量,讀取文件二進制數據 current_file = open(file_path, 'rb') current_file.seek(offset) files = {'file': current_file.read(partSize)} resp = requests.post(url, params=params, files=files).text print(resp)
2-3合並文件
最後調用合並文件的接口,將分段小文件合成大文件
def merge_file(self, filepath): """合並""" url = 'http://**/file/brust/merge' file_total_size, total_chunks_num, filename, file_md5 = self.get_chunk_info(filepath) payload = json.dumps( { "fileMD5": file_md5, "chunkTotal": total_chunks_num, "fileName": filename } ) print(payload) headers = { "Content-Type": "application/json" } resp = requests.post(url, headers=headers, data=payload).text print(resp)
2-4文件路徑參數化
為瞭並發執行,將文件上傳路徑參數化
# fileupload.py ... if __name__ == '__main__': filepath = sys.argv[1] # 每一段切片的大小(MB) chunk_size = 2 * 1024 * 1024 fileApi = FileApi(chunk_size) # 分段上傳 fileApi.do_chunk_and_upload(filepath) # 合並 fileApi.merge_file(filepath)
3. Jmeter 並發執行
在使用 Jmeter 創建並發流程前,我們需要編寫批處理腳本
其中,執行批處理腳本時,需要跟上文件路徑一起執行
# cmd.bat @echo off set filepath=%1 python C:\Users\xingag\Desktop\rpc_demo\fileupload.py %*
然後,在本地新建一個 CSV 文件,寫入多個文件路徑
# 準備多個文件路徑(csv)
C:\\Users\\xingag\\Desktop\\charles-proxy-4.6.1-win64.msi
C:\\Users\\xingag\\Desktop\\V2.0.pdf
C:\\Users\\xingag\\Desktop\\HBuilder1.zip
C:\\Users\\xingag\\Desktop\\HBuilder2.zip
接著,就可以使用 Jmeter 創建並發流程瞭
完整步驟如下:
- 創建一個測試計劃,下面添加一個線程組
這裡線程組數目與上面文件數目保持一致即可
- 線程組下,添加「同步定時器」
同步定時器中的「模擬用戶組的數量」和上面參數數量保持一致
- 添加 CSV 數據文件設置
指向上面準備的 csv 數據文件,設置文件格式為 UTF-8,變量名稱設置為file_path,最後將線程共享模式設置為「當前線程組」
- 添加調試取樣器,方便調試
- 添加 OS 進程取樣器
選擇上面創建的批處理文件,命令行參數設置為「${file_path}」
- 添加查看結果數
4. 最後
運行上面創建的 Jmeter 並發流程,在結果數中可以查看並發上傳文件的結果
當然,我們可以增加並發數量去模擬真實的使用場景,隻需要修改 CSV 數據源及 Jmeter 參數即可
到此這篇關於Jmeter並發執行 Python 腳本的問題詳解的文章就介紹到這瞭,更多相關Jmeter並發執行 Python 腳本內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!
推薦閱讀:
- 如何基於js管理大文件上傳及斷點續傳詳析
- Python騷操作完美實現短視頻偽原創
- Vue+NodeJS實現大文件上傳的示例代碼
- python根據文件名批量搜索文件
- jmeter執行python腳本的實現示例