mysql千萬級數據量根據索引優化查詢速度的實現

(一)索引的作用

索引通俗來講就相當於書的目錄,當我們根據條件查詢的時候,沒有索引,便需要全表掃描,數據量少還可以,一旦數據量超過百萬甚至千萬,一條查詢sql執行往往需要幾十秒甚至更多,5秒以上就已經讓人難以忍受瞭。

能在軟件上解決的,就不在硬件上解決,畢竟硬件提升代碼昂貴,性價比太低。代價小且行之有效的解決方法就是合理的加索引。索引使用得當,能使查詢速度提升上千倍,效果驚人。

(二)mysql的索引類型:

mysql的索引有5種:主鍵索引、普通索引、唯一索引、全文索引、聚合索引(多列索引)。

唯一索引和全文索引用的很少,我們主要關註主鍵索引、普通索引和聚合索引。

1)主鍵索引:主鍵索引是加在主鍵上的索引,設置主鍵(primary key)的時候,mysql會自動創建主鍵索引;

2)普通索引:創建在非主鍵列上的索引;

3)聚合索引:創建在多列上的索引。

(三)索引的語法:

查看某張表的索引:show index from 表名;

創建普通索引:alter table 表名 add index  索引名 (加索引的列) 

創建聚合索引:alter table 表名 add index  索引名 (加索引的列1,加索引的列2) 

刪除某張表的索引:drop index 索引名 on 表名;

(四)性能測試

測試環境:博主工作用臺式機

處理器為Intel Core i5-4460 3.2GHz;

內存8G;

64位windows。

1:創建一張測試表

DROP TABLE IF EXISTS `test_user`;
CREATE TABLE `test_user` (
 `id` bigint(20) PRIMARY key not null AUTO_INCREMENT,
 `username` varchar(11) DEFAULT NULL,
 `gender` varchar(2) DEFAULT NULL,
 `password` varchar(100) DEFAULT NULL
) ENGINE=MyISAM DEFAULT CHARSET=utf8;

存儲引擎使用MyISAM是因為此引擎沒有事務,插入速度極快,方便我們快速插入千萬條測試數據,等我們插完數據,再把存儲類型修改為InnoDB。

2:使用存儲過程插入1千萬條數據

create procedure myproc() 
begin 
declare num int; 
set num=1; 
while num <= 10000000 do 
insert into test_user(username,gender,password) values(num,'保密',PASSWORD(num)); 
set num=num+1;
end while;
 end
call myproc();

由於使用的MyISAM引擎,插入1千萬條數據,僅耗時246秒,若是InnoDB引擎,就要花費數小時瞭。

然後將存儲引擎修改回InnDB。使用如下命令:  alter table test_user engine=InnoDB;此命令執行時間大約耗時5分鐘,耐心等待。

tips:這裡是測試,生產環境中不要隨意修改存儲引擎,還有alter table 操作,會鎖整張表,慎用。其次:myisam引擎沒有事務,且隻是將數據寫到內存中,然後定期將數據刷出到磁盤上,因此突然斷電的情況下,會導致數據丟失。而InnDB引擎,是將數據寫入日志中,然後定期刷出到磁盤上,所以不怕突然斷電等情況。因此在實際生產中能用InnDB則用。

3:sql測試

select id,username,gender,password from test_user where id=999999

耗時:0.114s。

因為我們建表的時候,將id設成瞭主鍵,所以執行此sql的時候,走瞭主鍵索引,查詢速度才會如此之快。

我們再執行select id,username,gender,password from test_user where username=’9000000′
耗時:4.613s。

我們給username列加上普通索引。

ALTER TABLE `test_user` ADD INDEX index_name(username) ;

此過程大約耗時 54.028s,建索引的過程會全表掃描,逐條建索引,當然慢瞭。

再來執行:selectid,username,gender,password from test_user where username=’9000000′
耗時:0.043s。

再用username和password來聯合查詢

select id,username,gender,password from test_user where username='9000000' and `password`='*3A70E147E88D99888804E4D472410EFD9CD890AE'

此時雖然我們隊username加瞭索引,但是password列未加索引,索引執行password篩選的時候,還是會全表掃描,因此此時

查詢速度立馬降瞭下來。

耗時:4.492s。

當我們的sql有多個列的篩選條件的時候,就需要對查詢的多個列都加索引組成聚合索引:

加上聚合索引:ALTER TABLE `test_user` ADD INDEX index_union_name_password(username,password)
再來執行:

耗時:0.001s。

開篇也說過軟件層面的優化一是合理加索引;二是優化執行慢的sql。此二者相輔相成,缺一不可,如果加瞭索引,還是查詢很慢,這時候就要考慮是sql的問題瞭,優化sql。

Tips:

1:加瞭索引,依然全表掃描的可能情況有:

索引列為字符串,而沒帶引號;

索引列沒出現在where條件後面;

索引列出現的位置沒在前面。

2:關聯查詢不走索引的可能情況有:

關聯的多張表的字符集不一樣;

關聯的字段的字符集不一樣;

存儲引擎不一樣;

字段的長度不一樣。

到此這篇關於mysql千萬級數據量根據索引優化查詢速度的實現的文章就介紹到這瞭,更多相關mysql千萬級索引優化查詢內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!

推薦閱讀: