mysql千萬級數據量根據索引優化查詢速度的實現
(一)索引的作用
索引通俗來講就相當於書的目錄,當我們根據條件查詢的時候,沒有索引,便需要全表掃描,數據量少還可以,一旦數據量超過百萬甚至千萬,一條查詢sql執行往往需要幾十秒甚至更多,5秒以上就已經讓人難以忍受瞭。
能在軟件上解決的,就不在硬件上解決,畢竟硬件提升代碼昂貴,性價比太低。代價小且行之有效的解決方法就是合理的加索引。索引使用得當,能使查詢速度提升上千倍,效果驚人。
(二)mysql的索引類型:
mysql的索引有5種:主鍵索引、普通索引、唯一索引、全文索引、聚合索引(多列索引)。
唯一索引和全文索引用的很少,我們主要關註主鍵索引、普通索引和聚合索引。
1)主鍵索引:主鍵索引是加在主鍵上的索引,設置主鍵(primary key)的時候,mysql會自動創建主鍵索引;
2)普通索引:創建在非主鍵列上的索引;
3)聚合索引:創建在多列上的索引。
(三)索引的語法:
查看某張表的索引:show index from 表名;
創建普通索引:alter table 表名 add index 索引名 (加索引的列)
創建聚合索引:alter table 表名 add index 索引名 (加索引的列1,加索引的列2)
刪除某張表的索引:drop index 索引名 on 表名;
(四)性能測試
測試環境:博主工作用臺式機
處理器為Intel Core i5-4460 3.2GHz;
內存8G;
64位windows。
1:創建一張測試表
DROP TABLE IF EXISTS `test_user`; CREATE TABLE `test_user` ( `id` bigint(20) PRIMARY key not null AUTO_INCREMENT, `username` varchar(11) DEFAULT NULL, `gender` varchar(2) DEFAULT NULL, `password` varchar(100) DEFAULT NULL ) ENGINE=MyISAM DEFAULT CHARSET=utf8;
存儲引擎使用MyISAM是因為此引擎沒有事務,插入速度極快,方便我們快速插入千萬條測試數據,等我們插完數據,再把存儲類型修改為InnoDB。
2:使用存儲過程插入1千萬條數據
create procedure myproc() begin declare num int; set num=1; while num <= 10000000 do insert into test_user(username,gender,password) values(num,'保密',PASSWORD(num)); set num=num+1; end while; end
call myproc();
由於使用的MyISAM引擎,插入1千萬條數據,僅耗時246秒,若是InnoDB引擎,就要花費數小時瞭。
然後將存儲引擎修改回InnDB。使用如下命令: alter table test_user engine=InnoDB;此命令執行時間大約耗時5分鐘,耐心等待。
tips:這裡是測試,生產環境中不要隨意修改存儲引擎,還有alter table 操作,會鎖整張表,慎用。其次:myisam引擎沒有事務,且隻是將數據寫到內存中,然後定期將數據刷出到磁盤上,因此突然斷電的情況下,會導致數據丟失。而InnDB引擎,是將數據寫入日志中,然後定期刷出到磁盤上,所以不怕突然斷電等情況。因此在實際生產中能用InnDB則用。
3:sql測試
select id,username,gender,password from test_user where id=999999
耗時:0.114s。
因為我們建表的時候,將id設成瞭主鍵,所以執行此sql的時候,走瞭主鍵索引,查詢速度才會如此之快。
我們再執行select id,username,gender,password from test_user where username=’9000000′
耗時:4.613s。
我們給username列加上普通索引。
ALTER TABLE `test_user` ADD INDEX index_name(username) ;
此過程大約耗時 54.028s,建索引的過程會全表掃描,逐條建索引,當然慢瞭。
再來執行:selectid,username,gender,password from test_user where username=’9000000′
耗時:0.043s。
再用username和password來聯合查詢
select id,username,gender,password from test_user where username='9000000' and `password`='*3A70E147E88D99888804E4D472410EFD9CD890AE'
此時雖然我們隊username加瞭索引,但是password列未加索引,索引執行password篩選的時候,還是會全表掃描,因此此時
查詢速度立馬降瞭下來。
耗時:4.492s。
當我們的sql有多個列的篩選條件的時候,就需要對查詢的多個列都加索引組成聚合索引:
加上聚合索引:ALTER TABLE `test_user` ADD INDEX index_union_name_password(username,password)
再來執行:
耗時:0.001s。
開篇也說過軟件層面的優化一是合理加索引;二是優化執行慢的sql。此二者相輔相成,缺一不可,如果加瞭索引,還是查詢很慢,這時候就要考慮是sql的問題瞭,優化sql。
Tips:
1:加瞭索引,依然全表掃描的可能情況有:
索引列為字符串,而沒帶引號;
索引列沒出現在where條件後面;
索引列出現的位置沒在前面。
2:關聯查詢不走索引的可能情況有:
關聯的多張表的字符集不一樣;
關聯的字段的字符集不一樣;
存儲引擎不一樣;
字段的長度不一樣。
到此這篇關於mysql千萬級數據量根據索引優化查詢速度的實現的文章就介紹到這瞭,更多相關mysql千萬級索引優化查詢內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!