程序師世界是廣大編程愛好者互助、分享、學習的平台,程序師世界有你更精彩!
首頁
編程語言
C語言|JAVA編程
Python編程
網頁編程
ASP編程|PHP編程
JSP編程
數據庫知識
MYSQL數據庫|SqlServer數據庫
Oracle數據庫|DB2數據庫
 程式師世界 >> 數據庫知識 >> MYSQL數據庫 >> 關於MYSQL數據庫 >> mysql性能的檢查和調優方法

mysql性能的檢查和調優方法

編輯:關於MYSQL數據庫

       我一直是使用mysql這個數據庫軟件,它工作比較穩定,效率也很高。在遇到嚴重性能問題時,一般都有這麼幾種可能:

      1、索引沒有建好;

      2、sql寫法過於復雜;

      3、配置錯誤;

      4、機器實在負荷不了;

      1、索引沒有建好

      如果看到mysql消耗的cpu很大,可以用mysql的client工具來檢查。

      在linux下執行

      /usr/local/mysql/bin/mysql -hlocalhost -uroot -p

      輸入密碼,如果沒有密碼,則不用-p參數就可以進到客戶端界面中。

      看看當前的運行情況

      show full processlist

      可以多運行幾次

      這個命令可以看到當前正在執行的sql語句,它會告知執行的sql、數據庫名、執行的狀態、來自的客戶端ip、所使用的帳號、運行時間等信息

      在我的cache後端,這裡面大部分時間是看不到顯示任何sql語句的,我認為這樣才算比較正常。如果看到有很多sql語句,那麼這台mysql就一定會有性能問題

      如果出現了性能問題,則可以進行分析:

      1、是不是有sql語句卡住了?

      這是出現比較多的情況,如果數據庫是采用myisam,那麼有可能有一個寫入的線程會把數據表給鎖定了,如果這條語句不結束,則其它語句也無法運行。

      查看processlist裡的time這一項,看看有沒有執行時間很長的語句,要留意這些語句。

      2、大量相同的sql語句正在執行

      如果出現這種情況,則有可能是該sql語句執行的效率低下,同樣要留意這些語句。

      然後把你所懷疑的語句統統集合一下,用desc(explain)來檢查這些語句。

      首先看看一個正常的desc輸出:

      mysql> desc select * from imgs where imgid=1651768337;

      +----+-------------+-------+-------+---------------+---------+---------+-------+------+-------+

      | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

      +----+-------------+-------+-------+---------------+---------+---------+-------+------+-------+

      | 1 | SIMPLE | imgs | const | PRIMARY | PRIMARY | 8 | const | 1 | |

      +----+-------------+-------+-------+---------------+---------+---------+-------+------+-------+

      1 row in set (0.00 sec)

      注意key、rows和Extra這三項,這條語句返回的結果說明了該sql會使用PRIMARY主鍵索引來查詢,結果集數量為1條,Extra沒有顯示,證明沒有用到排序或其他操作。由此結果可以推斷,mysql會從索引中查詢imgid=1651768337這條記錄,然後再到真實表中取出所有字段,是很簡單的操作。

      key是指明當前sql會使用的索引,mysql執行一條簡單語句時只能使用到一條索引,注意這個限制;rows是返回的結果集大小,結果集就是使用該索引進行一次搜索的所有匹配結果;Extra一般會顯示查詢和排序的方式,。

      如果沒有使用到key,或者rows很大而用到了filesort排序,一般都會影響到效率,例如:

      mysql> desc select * from imgs where userid="7mini" order by clicks desc limit 10;

      +----+-------------+-------+------+---------------+------+---------+------+-------+-----------------------------+

      | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

      +----+-------------+-------+------+---------------+------+---------+------+-------+-----------------------------+

      | 1 | SIMPLE | imgs | ALL | NULL | NULL | NULL | NULL | 12506 | Using where; Using filesort |

      +----+-------------+-------+------+---------------+------+---------+------+-------+-----------------------------+

      1 row in set (0.00 sec)

      這條sql結果集會有12506條,用到了filesort,所以執行起來會非常消耗效率的。這時mysql執行時會把整個表掃描一遍,一條一條去找到匹配userid="7mini"的記錄,然後還要對這些記錄的clicks進行一次排序,效率可想而知。真實執行時如果發現還比較快的話,那是因為服務器內存還足夠將12506條比較短小的記錄全部讀入內存,所以還比較快,但是並發多起來或者表大起來的話,效率問題就嚴重了。

      這時我把userid加入索引:

      create index userid on imgs (userid);

      然後再檢查:

      mysql> desc select * from imgs where userid="7mini" order by clicks desc limit 10;

      +----+-------------+-------+------+---------------+--------+---------+-------+------+-----------------------------+

      | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

      +----+-------------+-------+------+---------------+--------+---------+-------+------+-----------------------------+

      | 1 | SIMPLE | imgs | ref | userid | userid | 51 | const | 8 | Using where; Using filesort |

      +----+-------------+-------+------+---------------+--------+---------+-------+------+-----------------------------+

      1 row in set (0.00 sec)

      嗯,這時可以看到mysql使用了userid這個索引搜索了,用userid索引一次搜索後,結果集有8條。然後雖然使用了filesort一條一條排序,但是因為結果集只有區區8條,效率問題得以緩解。

      但是,如果我用別的userid查詢,結果又會有所不同:

      mysql> desc select * from imgs where userid="admin" order by clicks desc limit 10;

      +----+-------------+-------+------+---------------+--------+---------+-------+------+-----------------------------+

      | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

      +----+-------------+-------+------+---------------+--------+---------+-------+------+-----------------------------+

      | 1 | SIMPLE | imgs | ref | userid | userid | 51 | const | 2944 | Using where; Using filesort |

      +----+-------------+-------+------+---------------+--------+---------+-------+------+-----------------------------+

      1 row in set (0.00 sec)

      這個結果和userid="7mini"的結果基本相同,但是mysql用userid索引一次搜索後結果集的大小達到2944條,這2944條記錄都會加入內存進行filesort,效率比起7mini那次來說就差很多了。這時可以有兩種辦法可以解決,第一種辦法是再加一個索引和判斷條件,因為我只需要根據點擊量取最大的10條數據,所以有很多數據我根本不需要加進來排序,比如點擊量小於10的,這些數據可能占了很大部分。

      我對clicks加一個索引,然後加入一個where條件再查詢:

      create index clicks on imgs(clicks);

      mysql> desc select * from imgs where userid="admin" order by clicks desc limit 10;

      +----+-------------+-------+------+---------------+--------+---------+-------+------+-----------------------------+

      | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

      +----+-------------+-------+------+---------------+--------+---------+-------+------+-----------------------------+

      | 1 | SIMPLE | imgs | ref | userid,clicks | userid | 51 | const | 2944 | Using where; Using filesort |

      +----+-------------+-------+------+---------------+--------+---------+-------+------+-----------------------------+

      1 row in set (0.00 sec)

      這時可以看到possible_keys變成了userid,clicks,possible_keys是可以匹配的所有索引,mysql會從possible_keys中自己判斷並取用其中一個索引來執行語句,值得注意的是,mysql取用的這個索引未必是最優化的。這次查詢mysql還是使用userid這個索引來查詢的,並沒有按照我的意願,所以結果還是沒有什麼變化。改一下sql加上use index強制mysql使用clicks索引:

      mysql> desc select * from imgs use index (clicks) where userid='admin' and clicks>10 order by clicks desc limit 10

      +----+-------------+-------+-------+---------------+--------+---------+------+------+-------------+

      | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

      +----+-------------+-------+-------+---------------+--------+---------+------+------+-------------+

      | 1 | SIMPLE | imgs | range | clicks | clicks | 4 | NULL | 5455 | Using where |

      +----+-------------+-------+-------+---------------+--------+---------+------+------+-------------+

      1 row in set (0.00 sec)

      這時mysql用到了clicks索引進行查詢,但是結果集比userid還要大!看來還要再進行限制:

      mysql> desc select * from imgs use index (clicks) where userid='admin' and clicks>1000 order by clicks desc limit 10

      +----+-------------+-------+-------+---------------+--------+---------+------+------+-------------+

      | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

      +----+-------------+-------+-------+---------------+--------+---------+------+------+-------------+

      | 1 | SIMPLE | imgs | range | clicks | clicks | 4 | NULL | 312 | Using where |

      +----+-------------+-------+-------+---------------+--------+---------+------+------+-------------+

      1 row in set (0.00 sec)

      加到1000的時候結果集變成了312條,排序效率應該是可以接受。

      不過,采用換索引這種優化方式需要取一個采樣點,比如這個例子中的1000這個數字,這樣,對userid的每個數值,都要去找一個采樣點,這樣對程序來說是很難辦的。如果按1000取樣的話,那麼userid='7mini'這個例子中,取到的結果將不會是8條,而是2條,給用戶造成了困惑。

      當然還有另一種辦法,加入雙索引:

      create index userid_clicks on imgs (userid, clicks)

      mysql> desc select * from imgs where userid="admin" order by clicks desc limit 10;

      +----+-------------+-------+------+----------------------+---------------+---------+-------+------+-------------+

      | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

      +----+-------------+-------+------+----------------------+---------------+---------+-------+------+-------------+

      | 1 | SIMPLE | imgs | ref | userid,userid_clicks | userid_clicks | 51 | const | 2944 | Using where |

      +----+-------------+-------+------+----------------------+---------------+---------+-------+------+-------------+

      1 row in set (0.00 sec)

      這時可以看到,結果集還是2944條,但是Extra中的filesort不見了。這時mysql使用userid_clicks這個索引去查詢,這不但能快速查詢到userid="admin"的所有記錄,並且結果是根據clicks排好序的!所以不用再把這個結果集讀入內存一條一條排序了,效率上會高很多。

      但是用多字段索引這種方式有個問題,如果查詢的sql種類很多的話,就得好好規劃一下了,否則索引會建得非常多,不但會影響到數據insert和update的效率,而且數據表也容易損壞。

      以上是對索引優化的辦法,因為原因可能會比較復雜,所以寫得比較的長,一般好好優化了索引之後,mysql的效率會提升n個檔次,從而也不需要考慮增加機器來解決問題了。

      但是,mysql甚至所有數據庫,可能都不好解決limit的問題。在mysql中,limit 0,10只要索引合適,是沒有問題的,但是limit 100000,10就會很慢了,因為mysql會掃描排好序的結果,然後找到100000這個點,取出10條返回。要找到100000這個點,就要掃描100000條記錄,這個循環是比較耗時的。不知道會不會有什麼好的算法可以優化這個掃描引擎,我冥思苦想也想不出有什麼好辦法。對於limit,目前直至比較久遠的將來,我想只能通過業務、程序和數據表的規劃來優化,我想到的這些優化辦法也都還沒有一個是萬全之策,往後再討論。

      2、sql寫法過於復雜

      sql寫法假如用到一些特殊的功能,比如groupby、或者多表聯合查詢的話,mysql用到什麼方式來查詢也可以用desc來分析,我這邊用復雜sql的情況還不算多,所以不常分析,暫時就沒有好的建議。

      3、配置錯誤

      配置裡主要參數是key_buffer、sort_buffer_size/myisam_sort_buffer_size,這兩個參數意思是:

      key_buffer=128M:全部表的索引都會盡可能放在這塊內存區域內,索引比較大的話就開稍大點都可以,我一般設為128M,有個好的建議是把很少用到並且比較大的表想辦法移到別的地方去,這樣可以顯著減少mysql的內存占用。

      sort_buffer_size=1M:單個線程使用的用於排序的內存,查詢結果集都會放進這內存裡,如果比較小,mysql會多放幾次,所以稍微開大一點就可以了,重要是優化好索引和查詢語句,讓他們不要生成太大的結果集。

      另外一些配置:

      thread_concurrency=8:這個配置標配=cpu數量x2

      interactive_timeout=30

      wait_timeout=30:這兩個配置使用10-30秒就可以了,這樣會盡快地釋放內存資源,注意:一直在使用的連接是不會斷掉的,這個配置只是斷掉了長時間不動的連接。

      query_cache:這個功能不要使用,現在很多人看到cache這幾個字母就像看到了寶貝,這是不唯物主義的。mysql的query_cache在每次表數據有變化的時候都會重新清理連至該表的所有緩存,如果更新比較頻繁,query_cache不但幫不上忙,而且還會對效率影響很大。這個參數只適合只讀型的數據庫,如果非要用,也只能用query_cache_type=2自行用SQL_CACHE指定一些sql進行緩存。

      max_connections:默認為100,一般情況下是足夠用的,但是一般要開大一點,開到400-600就可以了,能超過600的話一般就有效率問題,得另找對策,光靠增加這個數字不是辦法。

      其它配置可以按默認就可以了,個人覺得問題還不是那麼的大,提醒一下:1、配置雖然很重要,但是在絕大部分情況下都不是效率問題的罪魁禍首。2、mysql是一個數據庫,對於數據庫最重要考究的不應是效率,而是穩定性和數據准確性。

      4、機器實在負荷不了

      如果做了以上調整,服務器還是不能承受,那就只能通過架構級調整來優化了。

      1、mysql同步。

      通過mysql同步功能將數據同步到數台從數據庫,由主數據庫寫入,從數據庫提供讀取。

      我個人不是那麼樂意使用mysql同步,因為這個辦法會增加程序的復雜性,並常常會引起數據方面的錯誤。在高負荷的服務中,死機了還可以快速重啟,但數據錯誤的話要恢復就比較麻煩。

      2、加入緩存

      加入緩存之後,就可以解決並發的問題,效果很明顯。如果是實時系統,可以考慮用刷新緩存方式使緩存保持最新。

      在前端加入squid的架構比較提倡使用,在命中率比較高的應用中,基本上可以解決問題。

      如果是在程序邏輯層裡面進行緩存,會增加很多復雜性,問題會比較多而且難解決,不建議在這一層面進行調整。

      3、程序架構調整,支持同時連接多個數據庫

      如果web加入緩存後問題還是比較嚴重,只能通過程序架構調整,把應用拆散,用多台的機器同時提供服務。

      如果拆散的話,對業務是有少許影響,如果業務當中有部分功能必須使用所有的數據,可以用一個完整庫+n個分散庫這樣的架構,每次修改都在完整庫和分散庫各操作一次,或定期整理完整庫。

      當然,還有一種最笨的,把數據庫整個完完整整的做拷貝,然後程序每次都把完整的sql在這些庫執行一遍,訪問時輪詢訪問,我認為這樣要比mysql同步的方式安全。

      4、使用 mysql proxy 代理

      mysql proxy 可以通過代理把數據庫中的各個表分散到數台服務器,但是它的問題是沒有能解決熱門表的問題,如果熱門內容散在多個表中,用這個辦法是比較輕松就能解決問題。

      我沒有用過這個軟件也沒有認真查過,不過我對它的功能有一點點懷疑,就是它怎麼實現多個表之間的聯合查詢?如果能實現,那麼效率如何呢?

      5、使用memcachedb

      數據庫換用支持mysql的memcachedb,是可以一試的想法,從memcachedb的實現方式和層面來看對數據沒有什麼影響,不會對用戶有什麼困擾。

      為我現在因為數據庫方面問題不多,沒有試驗過這個玩意。不過,只要它支持mysql的大部分主要的語法,而且本身穩定,可用性是無需置疑的。

    1. 上一頁:
    2. 下一頁:
    Copyright © 程式師世界 All Rights Reserved