Python一些線程的玩法總結
一、線程基礎以及守護進程
線程是CPU調度的最小單位
全局解釋器鎖
全局解釋器鎖GIL(global interpreter lock)
全局解釋器鎖的出現主要是為瞭完成垃圾回收機制的回收機制,對不同線程的引用計數的變化記錄的更加精準。
全局解釋器鎖導致瞭同一個進程中的多個線程隻能有一個線程真正被CPU執行。
GIL鎖每執行700條指令才會進行一次(輪轉)切換(從一個線程切換到另外一個線程)
節省的是IO操作(不占用CPU)的時間,而不是CPU計算的時間,因為CPU的計算速度非常快,大多數情況下,我們沒有辦法把一條進程中所有的IO操作都規避掉。
threading模塊
import time from threading import Thread, current_thread, enumerate, active_count def func(i): print('start%s' % i, current_thread().ident) # 函數中獲取當前線程id time.sleep(1) print('end%s' % i) if __name__ == '__main__': t1 = [] for i in range(3): t = Thread(target=func, args=(i,)) t.start() print(t.ident) # 查看當前線程id t1.append(t) print(enumerate(), active_count()) for t in t1: t.join() print('所有線程執行完畢')
線程是不能從外部強制終止(terminate),所有的子線程隻能是自己執行完代碼之後就關閉。
current_thread 獲取當前的線程對象
current_thread().ident
或者 線程對象.ident
獲取當前線程id。
enumerate返回一個列表,存儲瞭所有活著的線程對象,包括主線程。
active_count返回一個數字,存儲瞭所有活著的線程個數。
【註意】enumerate導入之後,會和內置函數enumerate重名,需要做特殊的處理
- from threading import enumerate as en
- import threading
threading.enumerate()
面向對象方式開啟一個線程
from threading import Thread class MyThread(Thread): def __init__(self, a, b): super(MyThread, self).__init__() self.a = a self.b = b def run(self): print(self.ident) t = MyThread(1, 3) t.start() # 開啟線程,才在線程中執行run方法 print(t.ident)
線程之間的數據是共享的
from threading import Thread n = 100 def func(): global n n -= 1 t_li = [] for i in range(100): t = Thread(target=func) t.start() t_li.append(t) for t in t_li: t.join() print(n)
結果是:0
守護線程
主線程會等待子線程結束之後才結束,為什麼?
因為主線程結束,進程就會結束。
- 守護線程隨著主線程的結束而結束
- 守護進程會隨著主進程的代碼結束而結束,如果主進程代碼之後還有其他子進程在運行,守護進程不守護。
- 守護線程會隨著主線程的結束而結束,如果主線程代碼結束之後還有其他子線程在運行,守護線程也守護。
import time from threading import Thread def son(): while True: print('in son') time.sleep(1) def son2(): for i in range(3): print('in son2...') time.sleep(1) # flag a t = Thread(target=son) t.daemon = True t.start() # flag b a-->b用時0s Thread(target=son2).start()
為什麼守護線程會在主線程的代碼結束之後繼續守護其他子線程?
答:因為守護進程和守護線程的結束原理不同。守護進程需要主進程來回收資源,守護線程是隨著主線程的結束而結束,其他子線程–>主線程結束–>主進程結束–>整個進程中所有的資源都被回收,守護線程也會被回收。
二、線程鎖(互斥鎖)
線程之間也存在數據不安全
import dis a = 0 def func(): global a a += 1 dis.dis(func) # 得到func方法中的代碼翻譯成CPU指令 """ 結果 0 LOAD_GLOBAL 0 (a) 2 LOAD_CONST 1 (1) 4 INPLACE_ADD 6 STORE_GLOBAL 0 (a) 8 LOAD_CONST 0 (None) 10 RETURN_VALUE """
+=、-=、*=、/=、while、if、帶返回值的方法(都是先計算後賦值,前提要涉及到全局變量或靜態變量) 等都是數據不安全的,append、pop、queue、logging模塊等都是數據安全的。
列表中的方法或者字典中的方法去操作全局變量的時候,數據是安全的。
隻有一個線程,永遠不會出現線程不安全現象。
采用加鎖的方式來保證數據安全。
from threading import Thread, Lock n = 0 def add(lock): for i in range(500000): global n with lock: n += 1 def sub(lock): for i in range(500000): global n with lock: n -= 1 t_li = [] lock = Lock() for i in range(2): t1 = Thread(target=add, args=(lock,)) t1.start() t2 = Thread(target=sub, args=(lock,)) t2.start() t_li.append(t1) t_li.append(t2) for t in t_li: t.join() print(n)
線程安全的單例模式
import time from threading import Thread, Lock class A: __instance = None lock = Lock() def __new__(cls, *args, **kwargs): with cls.lock: if not cls.__instance: time.sleep(0.00001) cls.__instance = super().__new__(cls) return cls.__instance def func(): a = A() print(a) for i in range(10): Thread(target=func).start()
不用考慮加鎖的小技巧
- 不要操作全局變量
- 不要在類中操作靜態變量
因為多個線程同時操作全局變量/靜態變量,會產生數據不安全現象。
三、線程鎖(遞歸鎖)
from threading import Lock, RLock # Lock 互斥鎖 # RLock 遞歸(recursion)鎖 l = Lock() l.acquire() print('希望被鎖住的代碼') l.release() rl = RLock() # 在同一個線程中可以被acquire多次 rl.acquire() rl.acquire() rl.acquire() print('希望被鎖住的代碼') rl.release()
from threading import Thread, RLock def func(i, lock): lock.acquire() lock.acquire() print(i, ':start') lock.release() lock.release() print(i, ':end') lock = RLock() for i in range(5): Thread(target=func, args=(i, lock)).start()
互斥鎖與遞歸鎖
遞歸鎖在同一個線程中可以被acquire多次,而互斥鎖不行
互斥鎖效率高,遞歸鎖效率相對低
多把互斥鎖容易產生死鎖現象,遞歸鎖可以快速解決死鎖
四、死鎖
死鎖:指兩個或兩個以上的進程或線程在執行過程中,因爭奪資源而造成的一種互相等待的現象。
死鎖現象是怎麼產生的?
答:有多把鎖,並且在多個線程中交叉使用。與互斥鎖、遞歸鎖無關,都會發生死鎖。如果是互斥鎖,出現瞭死鎖現象,最快速的解決方案是把所有的互斥鎖都改成一把遞歸鎖(noodle_lock = fork_lock = RLock()),程序的效率會降低。
from threading import Thread, Lock import time noodle_lock = Lock() fork_lock = Lock() def eat1(name): noodle_lock.acquire() print(name, '搶到面瞭') fork_lock.acquire() print(name, '搶到叉子瞭') print(name, '吃面') time.sleep(0.0001) fork_lock.release() print(name, '放下叉子瞭') noodle_lock.release() print(name, '放下面瞭') def eat2(name): fork_lock.acquire() print(name, '搶到叉子瞭') noodle_lock.acquire() print(name, '搶到面瞭') print(name, '吃面') noodle_lock.release() print(name, '放下面瞭') fork_lock.release() print(name, '放下叉子瞭') Thread(target=eat1, args=('lucy',)).start() Thread(target=eat2, args=('jack',)).start() Thread(target=eat1, args=('rose',)).start() Thread(target=eat2, args=('disen',)).start()
五、隊列
隊列:線程之間數據安全的容器
線程隊列:數據安全,先進先出
原理:加鎖 + 鏈表
Queue
fifo 先進先出的隊列
get和put
import queue q = queue.Queue(3) # fifo 先進先出的隊列 q.put(1) q.put(2) print(q.get()) print(q.get())
1
2
get_nowait
import queue # from queue import Empty # 不是內置的錯誤類型,而是queue模塊中的錯誤 q = queue.Queue() # fifo 先進先出的隊列 try: q.get_nowait() except queue.Empty: pass print('隊列為空,繼續執行其他代碼')
put_nowait
用的很少,因為隊列滿時,拋異常,數據放不進去,丟失瞭。
LifoQueue
後進先出的隊列,也就是棧。last in first out
from queue import LifoQueue lq = LifoQueue() lq.put(1) lq.put(2) print(lq.get()) print(lq.get())
2
1
PriorityQueue
優先級隊列,按照放入數據的第一位數值從小到大輸出
from queue import PriorityQueue priq = PriorityQueue() priq.put((2, 'lucy')) priq.put((0, 'rose')) priq.put((1, 'jack')) print(priq.get()) print(priq.get()) print(priq.get())
(0, ‘rose’)
(1, ‘jack’)
(2, ‘lucy’)
三種隊列使用場景
先進先出:用於處理服務類任務(買票任務)
後進先出:算法中用的比較多
優先級隊列:比如,VIP制度,VIP用戶優先;
六、相關面試題
請聊聊進程隊列的特點和實現原理
特點:實現進程之間的通信;數據安全;先進先出。
實現原理:基於管道 + 鎖 實現的,管道是基於文件級別的socket + pickle 實現的。
你瞭解生產者消費者模型嗎,如何實現
瞭解
為什麼瞭解?工作經驗
采集圖片/爬取音樂:由於要爬取大量的數據,想提高爬取效率 有用過一個生產者消費者模型,這個模型是我自己寫的,消息中間件,用的是xxx(redis),我獲取網頁的過程作為生產者,分析網頁,獲取所有歌曲歌曲鏈接的過程作為消費者。 自己寫監控,或者是自己寫郵件報警系統,監控程序作為生產者,一旦發現有問題的程序,就需要把要發送的郵件信息交給消息中間件redis,消費者就從中間件中取值,然後來處理發郵件的邏輯。
什麼時候用過?
項目 或者 例子,結合上面一起
在python中實現生產者消費者模型可以用哪些機制
消息中間件 celery(分佈式框架):定時發短信的任務
從你的角度說說進程在計算機中扮演什麼角色
進程用來管理一個運行中的程序的資源,是資源分配的最小單位
進程與進程之間內存是隔離的
進程是由操作系統負責調度的,並且多個進程之間是一種競爭關系,所以我們應該對進程的三狀態時刻關註,盡量減少進程中的IO操作,或者在進程裡面開線程來規避IO,讓我們寫的程序在運行的時候能夠更多的占用CPU資源。
為什麼線程之間的數據不安全
線程之間數據共享
多線程的情況下,
如果在計算某一個變量的時候,還要進行賦值操作,這個過程不是由一條完整的CPU指令完成的; 如果在判斷某個bool表達式之後,再做某些操作,這個過程也不是由一條完整的CPU指令完成的; 在中間發生瞭GIL鎖的切換(時間片的輪轉),可能會導致數據不安全。
讀程序,請確認執行到最後number的長度是否一定為 1
import threading import time # loop = 1E7 # 10000000. loop = int(1E7) # 10000000 def _add(loop: int = 1): global numbers for _ in range(loop): numbers.append(0) def _sub(loop: int = 1): global numbers for _ in range(loop): while not numbers: time.sleep(1E-8) numbers.pop() numbers = [0] ta = threading.Thread(target=_add, args=(loop,)) ts = threading.Thread(target=_sub, args=(loop,)) # ts1 = threading.Thread(target=_sub, args=(loop,)) ta.start() ts.start() # ts1.start() ta.join() ts.join() # ts1.join()
因為隻開啟瞭一個進行pop操作的線程,如果開啟多個pop操作的線程,必須在while前面加鎖,因為可能有兩個線程,一個執行瞭while not numbers,發生瞭GIL的切換,另外一個線程執行完瞭代碼,numbers剛好沒有瞭數據,導致結果一個pop成功,一個pop不成功。
所以number長度一定為1,如果把註釋去瞭,不一定為1
讀程序,請確認執行到最後number的長度是否一定為 1
import threading import time loop = int(1E7) def _add(loop: int = 1): global numbers for _ in range(loop): numbers.append(0) def _sub(loop: int = 1): global numbers for _ in range(loop): while not numbers: time.sleep(1E-8) numbers.pop() numbers = [0] ta = threading.Thread(target=_add, args=(loop,)) ts = threading.Thread(target=_sub, args=(loop,)) ta.start() ta.join() ts.start() ts.join()
一定為1,因為是同步的。
讀程序,請確認執行到最後number是否一定為 0
import threading loop = int(1E7) def _add(loop: int = 1): global numbers for _ in range(loop): numbers += 1 def _sub(loop: int = 1): global numbers for _ in range(loop): numbers -= 1 numbers = 0 ta = threading.Thread(target=_add, args=(loop,)) ts = threading.Thread(target=_sub, args=(loop,)) ta.start() ta.join() ts.start() ts.join()
一定等於0,因為是同步的。
讀程序,請確認執行到最後number是否一定為 0
import threading loop = int(1E7) def _add(loop: int = 1): global numbers for _ in range(loop): numbers += 1 def _sub(loop: int = 1): global numbers for _ in range(loop): numbers -= 1 numbers = 0 ta = threading.Thread(target=_add, args=(loop,)) ts = threading.Thread(target=_sub, args=(loop,)) ta.start() ts.start() ta.join() ts.join()
不一定為0,因為是異步的且存在 += 操作
七、判斷數據是否安全
是否數據共享,是同步還是異步(數據共享並且異步的情況下)
- +=、-=、*=、/=、a = 計算之後賦值給變量
- if、while 條件,這兩個判斷是由多個線程完成的
這兩種情況下,數據不安全。
八、進程池 & 線程池
以前,有多少個任務就開多少個進程或線程。
什麼是池
要在程序開始的時候,還沒有提交任務,先創建幾個線程或者進程,放在一個池子裡,這就是池
為什麼要用池
如果先開好進程/線程,那麼有任務之後就可以直接使用這個池中的數據瞭;並且開好的進程/線程會一直存在在池中,可以被多個任務反復利用,這樣極大的減少瞭開啟/關閉/調度進程/調度線程的時間開銷。
池中的線程/進程個數控制瞭操作系統需要調用的任務個數,控制池中的單位,有利於提高操作系統的效率,減輕操作系統的負擔。
from concurrent.futures import ThreadPoolExecutor, ProcessPoolExecutor # threading模塊 沒有提供池 # multiprocessing模塊 仿照threading增加瞭Pool(逐漸被淘汰) # concurrent.futures模塊 線程池,進程池都能夠用相似的方式開啟/使用 ThreadPoolExecutor() # 參數代表開啟多少個線程,線程的個數一般起cpu個數*4(或者*5) ProcessPoolExecutor() # 參數代表開啟多少個進程,進程的個數一般起cpu個數+1
創建線程池並提交任務
from concurrent.futures import ThreadPoolExecutor from threading import current_thread import time def func(a, b): print(current_thread().ident, a, b) time.sleep(1) tp = ThreadPoolExecutor(4) # 創建線程池對象 for i in range(20): # tp.submit(func, i, i + 1) # 向池中提交任務 tp.submit(func, a=i, b=i + 1) # 位置傳參,關鍵字傳參都可以
創建進程池並提交任務
from concurrent.futures import ProcessPoolExecutor import os import time def func(a, b): print(os.getpid(), 'start', a, b) time.sleep(1) print(os.getpid(), 'end', a, b) if __name__ == '__main__': tp = ProcessPoolExecutor(4) # 創建進程池對象 for i in range(20): # tp.submit(func, i, i + 1) # 向池中提交任務 tp.submit(func, a=i, b=i + 1) # 位置傳參,關鍵字傳參都可以
獲取任務結果
from concurrent.futures import ProcessPoolExecutor import os import time def func(a, b): print(os.getpid(), 'start', a, b) time.sleep(1) print(os.getpid(), 'end', a, b) return a * b if __name__ == '__main__': tp = ProcessPoolExecutor(4) # 創建進程池對象 future_d = {} for i in range(20): # 異步非阻塞的 ret = tp.submit(func, a=i, b=i + 1) # future未來對象 # print(ret) # <Future at 0x1ad918e1148 state=running> # print(ret.result()) # 這樣需要等待,同步的 future_d[i] = ret for key in future_d: # 同步阻塞的 print(key, future_d[key].result())
tp對象的map
map 隻適合傳遞簡單的參數,並且必須是一個可迭代的類型
from concurrent.futures import ProcessPoolExecutor import os import time def func(a): print(os.getpid(), 'start', a[0], a[1]) time.sleep(1) print(os.getpid(), 'end', a[0], a[1]) return a[0] * a[1] if __name__ == '__main__': tp = ProcessPoolExecutor(4) ret = tp.map(func, ((i, i + 1) for i in range(20))) # 一般函數隻接收一個參數,要想傳入多個,使用元組方式 for r in ret: print(r)
回調函數
當有一個結果需要進行處理時,都會綁定一個回調函數來處理,除非是得到所有結果之後才做處理,我們使用 把結果存入列表 遍歷列表 的方式。
回調函數效率最高的。
from concurrent.futures import ThreadPoolExecutor from threading import current_thread import time def func(a, b): print(current_thread().ident, 'start', a, b) time.sleep(1) print(current_thread().ident, 'end', a) return a * b if __name__ == '__main__': tp = ThreadPoolExecutor(4) future_d = {} for i in range(20): # 異步非阻塞的 ret = tp.submit(func, a=i, b=i + 1) future_d[i] = ret for key in future_d: # 同步阻塞的 print(key, future_d[key].result())
上述代碼,打印結果是按照順序(0,1,2,3……),並不是誰先結束就打印誰。
使用回調函數以後,誰先執行完就打印誰,代碼如下:
from concurrent.futures import ThreadPoolExecutor from threading import current_thread import time def func(a, b): print(current_thread().ident, 'start', a, b) time.sleep(1) print(current_thread().ident, 'end', a) return a, a * b def print_func(ret): # 異步阻塞 每個任務都是各自阻塞各自,誰先執行完誰先打印 print(ret.result()) if __name__ == '__main__': tp = ThreadPoolExecutor(4) for i in range(20): # 異步非阻塞的 ret = tp.submit(func, a=i, b=i + 1) # [ret0, ret1, ..., ret19] ret.add_done_callback(print_func) # 異步阻塞 [print_func, print_func,...,print_func] # 回調機制 # 回調函數 給ret對象綁定一個回調函數,等待ret對應的任務有瞭結果之後立即調用print_func函數 # 就可以對結果立即進行處理,而不用按照順序接收結果處理結果
ret這個任務會在執行完畢的瞬間立即觸發print_func函數,並且把任務的返回值對象傳遞到print_func做參數。
回調函數的例子
from concurrent.futures import ThreadPoolExecutor import requests def get_page(url): # 訪問網頁,獲取網頁源代碼,用線程池中的線程來操作 respone = requests.get(url) if respone.status_code == 200: return {'url': url, 'text': respone.text} def parse_page(res): # 獲取到字典結果之後,計算網頁源代碼的長度,把'https://www.baidu.com : 長度值'寫到文件裡,線程任務執行完畢之後綁定回調函數 res = res.result() parse_res = 'url:<%s> size:[%s]\n' % (res['url'], len(res['text'])) with open('db.txt', 'a') as f: f.write(parse_res) if __name__ == '__main__': urls = [ 'https://www.baidu.com', 'https://www.python.org', 'https://www.openstack.org', 'https://www.tencent.com/zh-cn', 'http://www.sina.com.cn/' ] tp = ThreadPoolExecutor(4) for url in urls: ret = tp.submit(get_page, url) ret.add_done_callback(parse_page) # 誰先回來誰就先把結果寫進文件 # 不用回調函數: # 按照順序獲取網頁,baidu python openstack tencent sina # 也隻能按照順序寫 # 用上瞭回調函數 # 按照順序獲取網頁,baidu python openstack tencent sina # 哪一個網頁先返回結果,就先執行哪個網頁對應的回調函數(parse_page)
進程池線程池的應用場景 進程池:
場景:高計算的場景,沒有IO操作(沒有文件操作,沒有數據庫操作,沒有網絡操作,沒有input);
進程的個數:[cpu_count*1, cpu_count*2]
線程池:
場景:爬蟲
線程的個數:一般根據IO的比例定制,cpu_count*5
到此這篇關於Python一些線程的玩法總結的文章就介紹到這瞭,更多相關Python線程的玩法內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!