python自帶緩存lru_cache用法及擴展的使用

本篇博客將結合python官方文檔和源碼詳細講述lru_cache緩存方法是怎麼實現, 它與redis緩存的區別是什麼, 在使用時碰上functiontools.wrap裝飾器時會發生怎樣的變化,以及瞭解它給我們提供瞭哪些功能然後在其基礎上實現我們自制的緩存方法my_cache。

1. lru_cache的使用

1.1 參數詳解

以下是lru_cache方法的實現,我們看出可供我們傳入的參數有2個maxsize和typed,如果不傳則maxsize的默認值為128,typed的默認值為False。其中maxsize參數表示是的被裝飾的方法最大可緩存結果數量, 如果是默認值128則表示被裝飾方法最多可緩存128個返回結果,如果maxsize傳入為None則表示可以緩存無限個結果,你可能會疑惑被裝飾方法的n個結果是怎麼來的,打個比方被裝飾的方法為def add(a, b):當函數被lru_cache裝飾時,我們調用add(1, 2)和add(3, 4)將會緩存不同的結果。如果 typed 設置為true,不同類型的函數參數將被分別緩存。例如, f(3) 和 f(3.0) 將被視為不同而分別緩存。

def lru_cache(maxsize=128, typed=False):
    if isinstance(maxsize, int):
        if maxsize < 0:
            maxsize = 0
    elif maxsize is not None:
        raise TypeError('Expected maxsize to be an integer or None')

    def decorating_function(user_function):
        wrapper = _lru_cache_wrapper(user_function, maxsize, typed, _CacheInfo)
        return update_wrapper(wrapper, user_function)

    return decorating_function

1.2 基本用法

在我們編寫接口時可能需要緩存一些變動不大的數據如配置信息,我們可能編寫如下接口:

@api.route("/user/info", methods=["GET"])
@functools.lru_cache()
@login_require
def get_userinfo_list():
    userinfos = UserInfo.query.all()
    userinfo_list = [user.to_dict() for user in userinfos]
    return jsonify(userinfo_list)

我們緩存瞭從數據庫查詢的用戶信息,下次再調用這個接口時將直接返回用戶信息列表而不需要重新執行一遍數據庫查詢邏輯,可以有效較少IO次數,加快接口反應速度。

1.3 進階用法

還是以上面的例子,如果發生用戶的刪除或者新增時,我們再請求用戶接口時仍然返回的是緩存中的數據,這樣返回的信息就和我們數據庫中的數據就會存在差異,所以當發生用戶新增或者刪除時,我們需要清除原先的緩存,然後再請求用戶接口時可以重新加載緩存。

@api.route("/user/info", methods=["POST"])
@functools.lru_cache()
@login_require
def add_user():
    user = UserInfo(name="李四")
    db.session.add(user)
    db.session.commit()
    
    # 清除get_userinfo_list中的緩存
    get_userinfo_list = current_app.view_functions["api.get_machine_list"]
    cache_info = get_userinfo_list.cache_info()
    # cache_info 具名元組,包含命中次數 hits,未命中次數 misses ,最大緩存數量 maxsize 和 當前緩存大小 currsize
    # 如果緩存數量大於0則清除緩存
    if cache_info[3] > 0:
     get_userinfo_list.cache_clear()
    return jsonify("新增用戶成功")

在上面這個用法中我們,如果我們把lru_cache裝飾器和login_require裝飾器調換位置時,上述的寫法將會報錯,這是因為login_require裝飾器中用瞭functiontools.wrap模塊進行裝飾導致的,具原因我們在下節解釋, 如果想不報錯得修改成如下寫法。

@api.route("/user/info", methods=["POST"])
@login_require
@functools.lru_cache()
def add_user():
    user = UserInfo(name="李四")
    db.session.add(user)
    db.session.commit()
    
    # 清除get_userinfo_list中的緩存
    get_userinfo_list = current_app.view_functions["api.get_machine_list"]
    cache_info = get_userinfo_list.__wrapped__.cache_info()
    # cache_info 具名元組,包含命中次數 hits,未命中次數 misses ,最大緩存數量 maxsize 和 當前緩存大小 currsize
    # 如果緩存數量大於0則清除緩存
    if cache_info[3] > 0:
     get_userinfo_list.__wrapped__.cache_clear()
    return jsonify("新增用戶成功")

2. functiontools.wrap裝飾器對lru_cache的影響

在上節我們看到,因為@login_require和@functools.lru_cache()裝飾器的順序不同, 就導致瞭程序是否報錯, 其中主要涉及到兩點:

  • login_require裝飾器中是否用瞭@functiontools.wrap()裝飾器
  • @login_require和@functools.lru_cache()裝飾器的執行順序問題

當我們瞭解完這兩點後就可以理解上述寫法瞭。

2.1 多個裝飾器裝飾同一函數時的執行順序

這裡從其他地方盜瞭一段代碼來解釋一下,如下:

def decorator_a(func):
    print('Get in decorator_a')
    def inner_a(*args,**kwargs):
        print('Get in inner_a')
        res = func(*args,**kwargs)
        return res
    return inner_a

def decorator_b(func):
    print('Get in decorator_b')
    def inner_b(*args,**kwargs):
        print('Get in inner_b')
        res = func(*args,**kwargs)
        return res
    return inner_b


@decorator_b
@decorator_a
def f(x):
    print('Get in f')
    return x * 2

f(1)

輸出結果如下:

‘Get in decorator_a’
‘Get in decorator_b’
‘Get in inner_b’
‘Get in inner_a’
‘Get in f’

是不是很像django中的中間件的執行順序,其實原理都差不多。

2.2 functiontools.wrap原理

引用其他博主的描述:

Python裝飾器(decorator)在實現的時候,被裝飾後的函數其實已經是另外一個函數瞭(函數名等函數屬性會發生改變),為瞭不影響,Python的functools包中提供瞭一個叫wraps的decorator來消除這樣的副作用。寫一個decorator的時候,最好在實現之前加上functools的wrap,它能保留原有函數的名稱和docstring。

補充:為瞭訪問原函數此函數會設置一個__wrapped__屬性指向原函數, 這樣就可以解釋上面1.3節中我們的寫法瞭。

2.3 使用wrap裝飾器前後的變化

未完待續。。。。。。。。。

3. 自制簡易的my_cache

3.1 lru_cache提供的功能

lru_cache緩存裝飾器提供的功能有:

  • 緩存被裝飾對象的結果(基礎功能)
  • 獲取緩存信息
  • 清除緩存內容
  • 根據參數變化緩存不同的結果
  • LRU算法當緩存數量大於設置的maxsize時清除最不常使用的緩存結果

​ 從列出的功能可知,python自帶的lru_cache緩存方法可以滿足我們日常工作中大部分需求, 可是它不包含一個重要的特性就是,超時自動刪除緩存結果,所以在我們自制的my_cache中我們將實現緩存的超時過期功能。

3.2 cache的核心部件

在作用域內存在一個相對全局的字典變量cache={}

在作用域內設置相對全局的變量包含命中次數 hits,未命中次數 misses ,最大緩存數量 maxsize和 當前緩存大小 currsize

第二點中的緩存信息中增加緩存加入時間和緩存有效時間

3.3 my_cache的實現

待實現。。。。。。。。。。。。

4. lru_cache緩存和redis緩存的區別

比較類型 lru_cache redis
緩存類型 緩存在app進程內存中 緩存在redis管理的內存中
分佈式 隻緩存在單個app進程中 可做分佈式緩存
數據類型 hash 參數作為key,返回結果為value 有5種類型的數據結構
適用場景 比較小型的系統、單體應用 常用的緩存解決方案
功能 緩存功能但是缺少過期時間控制,但是使用上更加便捷 具備緩存需要的各種要素

5. 總結

綜上所述,python自帶的緩存功能使用於稍微小型的單體應用。優點是可以很方便的根據傳入不同的參數緩存對應的結果, 並且可以有效控制緩存的結果數量,在超過設置數量時根據LRU算法淘汰命中次數最少的緩存結果。缺點是沒有辦法對緩存過期時間進行設置。

到此這篇關於python自帶緩存lru_cache用法及擴展的使用的文章就介紹到這瞭,更多相關python自帶緩存lru_cache內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!

推薦閱讀: