MySQL深度分頁(千萬級數據量如何快速分頁)

前言

後端開發中為瞭防止一次性加載太多數據導致內存、磁盤IO都開銷過大,經常需要分頁展示,這個時候就需要用到MySQL的LIMIT關鍵字。但你以為LIMIT分頁就萬事大吉瞭麼,Too young,too simple啊,LIMIT在數據量大的時候極可能造成的一個問題就是深度分頁。

案例

這裡我以顯示電商訂單詳情為背景舉個例子,新建表如下:

CREATE TABLE `cps_user_order_detail` (
  `id` bigint(20) unsigned NOT NULL AUTO_INCREMENT COMMENT '主鍵',
  `user_id` varchar(32) NOT NULL DEFAULT '' COMMENT '用戶ID',
  `order_id` bigint(20) DEFAULT NULL COMMENT '訂單id',
  `sku_id` bigint(20) unsigned NOT NULL COMMENT '商品ID',
  `order_time` datetime DEFAULT NULL COMMENT '下單時間,格式yyyy-MM-dd HH:mm:ss',
   PRIMARY KEY (`id`),
   KEY `idx_time_user` (`order_time`,`user_id`) USING BTREE
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin COMMENT='用戶訂單詳情';

然後手動向表裡插入120W條數據。
現在有個需求:分頁展示用戶的訂單詳情,按照下單時間倒序。
表結構精簡瞭,需求也簡單。於是嘩嘩嘩的寫完代碼,提測上線瞭。早期運行一切正常,可隨著訂單量的不斷增大,發現系統越發的緩慢,還時不時報出幾個慢查詢
這個時候你就該想到是LIMIT偏移的問題瞭,沒錯,不是你的SQL不夠優美,就是MySQL自身的機制。
這裡我就簡單以兩條SQL為例,如下圖,分別是從100和100W的位置偏移分頁,可以看到時間相差很大。這還不算其它數據運算和處理的時間,單一條SQL的查詢就耗時一秒以上,在對用戶提供的功能裡這是不能容忍的(電商裡經常要求一個接口的RT不超過200ms)。

這裡我們再看下執行計劃,如下圖所示:

在此先介紹一下執行計劃Extra列可能出現的值及含義:

  1. Using where:表示優化器需要通過索引回表查詢數據。
  2. Using index:即覆蓋索引,表示直接訪問索引就足夠獲取到所需要的數據,不需要通過索引回表,通常是通過將待查詢字段建立聯合索引實現。
  3. Using index condition:在5.6版本後加入的新特性,即大名鼎鼎的索引下推,是MySQL關於減少回表次數的重大優化。
  4. Using filesort:文件排序,這個一般在ORDER BY時候,數據量過大,MySQL會將所有數據召回內存中排序,比較消耗資源。

再看看上圖,同樣的語句,隻因為偏移量不同,就造成瞭執行計劃的千差萬別(且容我小小的誇張一下)。第一條語句LIMIT 100,6type列的值是range,表示范圍掃描,性能比ref差一個級別,但是也算走瞭索引,並且還應用瞭索引下推:就是說在WHERE之後的下單時間刪選走瞭索引,並且之後的ORDER BY也是根據索引下推優化,在執行WHERE條件篩選時同步進行的(沒有回表)。
而第二條語句LIMIT 1000000,6壓根就沒走索引,type列的值是ALL,顯然是全表掃描。並且Extra列字段裡的Using where表示發生瞭回表,Using filesort表示ORDER BY時發生瞭文件排序。所以這裡慢在瞭兩點:一是文件排序耗時過大,二是根據條件篩選瞭相關的數據之後,需要根據偏移量回表獲取全部值。無論是上面的哪一點,都是LIMIT偏移量過大導致的,所以實際開發環境經常遇到非統計表量級不得超過一百萬的要求。

優化

原因分析完瞭,那麼LIMIT深度分頁在實際開發中怎麼優化呢?這裡少俠給兩點方案。
一是通過主鍵索引優化。什麼意思呢?就是把上面的語句修改成:

SELECT * FROM cps_user_order_detail d WHERE d.id > #{maxId} AND d.order_time>'2020-8-5 00:00:00' ORDER BY d.order_time LIMIT 6;

如上代碼所示,同樣也是分頁,但是有個maxId的限制條件,這個是什麼意思呢,maxId就是上一頁中的最大主鍵Id。所以采用此方式的前提:1)主鍵必須自增不能是UUID並且前端除瞭傳基本分頁參數pageNo,pageSize外,還必須把每次上一頁的最大Id帶過來,2)該方式不支持隨機跳頁,也就是說隻能上下翻頁。如下圖所示是某知名電商中的實際頁面。

二是通過Elastic Search搜索引擎優化(基於倒排索引),實際上類似於淘寶這樣的電商基本上都是把所有商品放進ES搜索引擎裡的(那麼海量的數據,放進MySQL是不可能的,放進Redis也不現實)。但即使用瞭ES搜索引擎,也還是有可能發生深度分頁的問題的,這時怎麼辦呢?答案是通過遊標scroll。關於此點這裡不做深入,感興趣的可以做研究。

小結

寫這篇博客是因為前段時間在開發中真實經歷到瞭,並且之前在字節面試中確實也和面試官探討瞭一番。知道LIMIT的限制以及優化,在面試中能提到是加分項,不能說到MySQL優化就是建索引,調整SQL(實際上在真實開發中這兩種優化方案的成效微乎其微)。畢竟MySQL優化那麼牛X的話,就不會有那麼多中間件產生瞭。

到此這篇關於MySQL深度分頁(千萬級數據量如何快速分頁)的文章就介紹到這瞭,更多相關MySQL 深度分頁內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!

推薦閱讀: