Python 如何手動編寫一個自己的LRU緩存裝飾器的方法實現

LRU緩存算法,指的是近期最少使用算法,大體邏輯就是淘汰最長時間沒有用的那個緩存,這裡我們使用有序字典,來實現自己的LRU緩存算法,並將其包裝成一個裝飾器。

1、首先創建一個my_cache.py文件 編寫自己我們自己的LRU緩存算法,代碼如下:

import time
from collections import OrderedDict
 
'''
基於LRU,近期最少用緩存算法寫的裝飾器。
'''
 
 
class LRUCacheDict:
    def __init__(self, max_size=1024, expiration=60):
        self.max_size = max_size
        self.expiration = expiration
 
        self._cache = {}
        self._access_records = OrderedDict()  # 記錄訪問時間
        self._expire_records = OrderedDict()  # 記錄失效時間
 
    def __setitem__(self, key, value):  # 設置緩存
        now = int(time.time())
        self.__delete__(key)  # 刪除原有使用該Key的所有緩存
 
        self._cache[key] = value
        self._access_records = now  # 設置訪問時間
        self._expire_records = now + self.expiration  # 設置過期時間
        self.cleanup()
 
    def __getitem__(self, key):  # 更新緩存
        now = int(time.time())
        del self._access_records[key]  # 刪除原有的訪問時按
        self._access_records[key] = now
        self.cleanup()
 
    def __contains__(self, key):  # 這個是字典默認調用key的方法
        self.cleanup()
        return key in self._cache
 
    def __delete__(self, key):
        if key in self._cache:
            del self._cache[key]  # 刪除緩存
            del self._access_records[key]  # 刪除訪問時間
            del self._expire_records[key]  # 刪除過期時間
 
    def cleanup(self):  # 用於去掉無效(超過大小)和過期的緩存
        if self._expire_records is None:
            return None
 
        pending_delete_keys = []
        now = int(time.time())
        for k, v in self._expire_records.items():  # 判斷緩存是否失效
            if v < now:
                pending_delete_keys.append(k)
 
        for del_k in pending_delete_keys:
            self.__delete__(del_k)
 
        while len(self._cache) > self.max_size:  # 判斷緩存是否超過長度
            for k in self._access_records.keys():  # LRU 是在這裡實現的,如果緩存用的最少,那麼它存入在有序字典中的位置也就最前
                self.__delete__(k)
                break

代碼邏輯其實很簡單,上面的註釋已經很詳細瞭,不懂的話多看幾次。這裡實現LRU邏輯的其實是有序字典OrderedDict,你最先存入的值就會存在字典的最前面。當一個值使用時候,我們會重新儲存過期時間,導致被經常使用的緩存,會存在字典的後面。而一但緩存的內容長度超過限制時候,這裡會調用有序字典最前面的key(也即是近期相對用的最少的),並刪除對應的內容,以達到LRU的邏輯。

2、在將我們寫好的算法改成裝飾器:

from functools import wraps
from my_cache import LRUCacheDict
 
 
def lru_cache(max_size=1024, expiration=60, types='LRU'):
    if types == 'lru' or types == 'LRU':
        my_cache = LRUCacheDict(max_size=max_size, expiration=expiration)
 
    def wrapper(func):
        @wraps(func)
        def inner(*args, **kwargs):
            key = repr(*args, **kwargs)
            try:
                result = my_cache[key]
            except KeyError:
                result = func(*args, **kwargs)
                my_cache[key] = result
            return result
 
        return inner
 
    return wrapper

這裡需要解釋的是直接使用 my_cache[key],這個類似字典的方法,實際上是調用瞭 LRUCacheDict 中的 __contations__方法,這也是字典中實現通過key取值的方法。這個裝飾器裡,我加入瞭types的參數,你們可以根據需求,實現不同的緩存算法,豐富這個裝飾器的功能,而lru緩存本身,其實已經是python的標準庫瞭,可以引入functools.lru_cache來調用。

到此這篇關於Python 如何手動編寫一個自己的LRU緩存裝飾器的方法實現的文章就介紹到這瞭,更多相關Python LRU緩存裝飾器內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!

推薦閱讀: